BOOK OF ABSTRACTS
LIBRO DE RESÚMENES

(Provisional)


LA CONTRIBUCIÓN DEL PROF. CATALÁN AL DESARROLLO
DE LA MECÁNICA CUÁNTICA

José Campos Gutiérrez

El profesor de la Universidad de Madrid Miguel Catalán nació en Zaragoza en 1894 y murió en Madrid en 1957. Yo tuve la oportunidad de escuchar alguna conferencia suya aunque su desaparición ocurrió mientras cursaba mi licenciatura en Física. Tiempo después, tuve ocasión de relacionarme con sus discipulos, directos continuadores no solo de su legado científico, sino también de su talante generoso, abierto y de persecución de la excelencia científica .
En 1922 el prof. Catalán descubrió los multipletes atómicos en el manganeso, que son una forma de ordenación de los niveles atómicos en átomos complejos. Este hecho constituyó un paso fundamental en aquellos años cruciales, que tuvieron lugar entre el nacimiento de la antigua mecánica cuántica del átomo (Bohr 1913), hasta el surgimiento de la actual en 1925. Aquella época se caracterizó por una parte por los fallidos intentos de Bohr y Sommerfeld de aplicar la antigua teoria a los átomos polielectrónicos, que no obstante fueron muy relevantes, y por otra por una fructífera actividad experimental que sentó las bases para la actual teoría del átomo y para el desarrollo de toda la mecánica cuántica. Como es bien sabido la física del átomo ha contribuido y seguirá contribuyendo de una forma decisiva a nuestro conocimiento de las leyes naturales. Podemos citar como representantes de la experimentación en el periodo mencionado a Stern y Guerlach (1921) , Paschen-Back (1921), Landé (1923) y a Catalán (1922).
La noción de orden es básica para el desarrollo de las ciencia de la naturaleza. Encontrada una ordenación empíricamente, nos preguntamos seguidamente por su origen, si lo hallamos, podemos señalar nuevas magnitudes que pueden ser medidas, y si obtenemos nuevas relaciones, es posible seguir construyendo un modelo del sistema estudiado con la finalidad de que sea lo más completo y predictivo posible. Este fué el transcendente paso Catalán, encontrar un orden en la aparentemente compleja y arbitraria disposición de las lineas de un espectro atómico. Este hallazgo fué fundamental para la comprensión posterior del papel de los momentos angulares de los electrones corticales y para el desarrollo general de la teoria cuántica de dichas magnitudes y su aplicación a muchos otros problemas.
El prof. Catalán fué uno de los fundadores del instituto Rockefeller, antececedente próximo del actual CSIC. Su gran prestigio científico hizo que se buscase su colaboración en investigaciones conjuntas por grupos extranjeros muy bien equipados y de alto nivel, entre ellos muchos europeos y los del antiguo NBS de Norteamérica. Sus contribuciones siempre fueron relevantes y producidas a un ritmo constante, reflejo de su vitalidad y entusiasmo. Hoy, frecuentemente, encontramos datos originales que no han sido todavía mejorados. Como ejemplo, diremos que en 1954 junto con Shenstone y Rohelich publicó un artículo paradigmático sobre series isoeléctronicas, que es una pieza maestra en el hallazgo de relaciones en sistemas complejos, y que ha dado lugar a uno de los temas actuales de investigación de más interés en esta disciplina. Por tanto, su obra repleta de logros es una referencia obligada en la historia de la mecánica cuántica y también en la crónica de la búsqueda de las leyes profundas de la naturaleza mediante la experimentación y el análisis en un constante compromiso con el trabajo y la honestidad.


CORRESPONDENCE AND NON-REDUCTIVE UNITY OF PHYSICS

Brigitte Falkenburg (Dortmund)

The gap between the classical and the quantum domain has remained the most striking case against a unified theory of physics. Usually, the goal of a unified physics is explained in terins of the axiomatic method. A most prominent proponent of axiomatic unity was Einstein. Against Bohr's and Heisenberg's view of quantum mechanics, he insisted on Planck's metaphysical realism and on a unified description of nature. Einstein's opponent Bohr, however, proposed a much weaker view of the unity of physics. He defended a non-reductive, primarily linguistic view of the unity of physics, and a kind of Kantian empirical realism regarding quantum phenomena. By explaining the quantum domain in complementary classical terms, he insisted that the classical and the quantum domain are conceptually coherent. His complementarity view of quantum phenomena emerged from weakening the traditional demands of scientific explanation, and using the correspondence principle within old quantum theory. In my talk, I discuss some crucial semantic and pragmatic aspects of Bohr's weakened account of the unity of physics. I argue in Bohr's line of thought that the actual diversity of physical models and theories is underpinned by far-reaching conceptual coherence and experimental stability.


LA MECÁNICA CUÁNTICA Y EL ESPACIO VACÍO

Antonio Fernández-Rañada

La mecánica cuántica afecta de modo importante a nuestras ideas sobre el espacio. De modo simple y quizá coloquial, podemos decir que, según ella, el espacio vacío está muy lleno.
El concepto de espacio sigue siendo muy difícil para nuestra intuición, a pesar de que ya se ocuparon de él los filósofos griegos. Por un lado, Aristóteles negó la posibilidad del espacio vacío, lo que tuvo consecuencias muy negativas para el desarrollo de la teoría atomista. Por otro, ha habido dos puntos de vista contrarios sobre él a lo largo de la historia. Algunos han tendido a pensar que el espacio tiene entidad por sí mismo, imaginándolo algo así como un substrato. Otros, en cambio, lo han entendido como un conjunto de relaciones entre puntos. Entre los primeros destaca Newton (quien llego a considerar al espacio absoluto como el sensorio de Dios). La segunda tradición se inicia con los llamados primeros relativistas, como Leibniz o Berkeley,  y desemboca en la Relatividad de Einstein.
A pesar de su oposición, las dos tradiciones coincidían hasta 1915 en considerar al espacio como algo inerte, una especie de escenario en el que simplemente ocurren las cosas del mundo. La Relatividad General trajo una primera novedad: ya no hay en ella fuerzas sino que el movimiento es afectado por la geometría del espacio, que no puede suponerse a priori. Pero la mecánica cuántica aportó un cambio mucho más radical: para ella, el espacio vacío no es pasivo, es más bien un ente activo dotado de energía propia que afecta, no sólo al movimiento, sino a las propiedades de lo que se mueve en él, modificando por ejemplo la carga eléctrica o la masa de las partículas que lo atraviesan y afectando quizás a la evolución del universo. O sea, que el escenario antes pasivo cobra vida y dinámica propias, haciéndose también actor del drama que se desarrolla en él e influyendo en su desenlace.
El mismo Planck encontró en 1912 que a su famosa ley de la radiación del cuerpo negro debe añadirse un nuevo término que representaba una densidad de energía extendida por el espacio, con la sorprendente propiedad de ser infinita. Rechazó la idea, tan extraña le pareció, pero al final de los años veinte ésta resultó inevitable pues resultó una clara consecuencia de la teoría cuántica. Se comprendió entonces su origen: por todo el espacio se extiende un mar de partículas llamadas virtuales que son constantemente creadas y reabsorbidas tras intervalos cortísimos de tiempo. Como la energía consiguiente debería existir incluso en el cero absoluto de temperatura, se conoce como “energía del punto cero”. También, como “energía del vacío cuántico”. Hoy se piensa que es inseparable el espacio.
En la década de los cuarenta, dos observaciones cruciales mostraron su existencia inequívoca: los llamados efectos Lamb y Casimir. Más adelante, se empezó a pensar que debe tener un efecto importante sobre la evolución del universo, pues podría ser la causa de la gravedad repulsiva a gran escala, introducida por Einstein con el nombre de constante cosmológica. Por eso el conocimiento de la física del vacío cuántico es hoy un objetivo crucial de la cosmología.
Pero ignoramos casi todo sobre el espacio vacío y su energía del punto cero. En cierto modo se podría decir que la física está hoy ante ella como lo estaba al final del XIX ante la radiación del cuerpo negro.


LA REVOLUCIÓN CUÁNTICA: NUEVA VISIÓN EN FÍSICA Y
EN FILOSOFÍA

Manuel García Doncel

Esta conferencia inicial pretende ser una introducción didáctica a la temática inmensa del congreso. Presentará en primer lugar una panorámica histórica a partir de las ideas cuánticas de Max Planck en diciembre de 1900. Ella mostrará cómo esas ideas, peculiares entonces del contexto termodinámico de la radiación del cuerpo negro, constituirán un nuevo paradigma con el que a lo largo de este siglo iremos penetrando las estructuras más básicas de la materia: el átomo (1913), el núcleo (1932), las partículas elementales (1947), las subpartículas (1964). En segundo lugar ponderará los cambios conceptuales introducidos en la mecánica cuántica nueva (1925-27) y la ulterior teoría cuántica de campos, desde las ideas físicas más básicas de observable o de superposición de estados, a los principios filosóficos de indeterminación, complementariedad o inseparabilidad. Lo radical de esos cambios conceptuales exige hablar de revolución, o si se prefiere, de "especiación" dentro de la física. Y, tras la introducción de tales concepciones cuánticas en la cosmología, la biología y la neurociencia, cabe hablar de una nueva visión filosófica, que nos descubre un mundo abierto y global.


UNIVERSALITY AND CONSISTENCY IN QUANTUM MECHANICS - NEW PROBLEMS OF AN OLD THEORY

Peter Mittelstaedt

In the first decade of quantum mechanics - when the formalism was finally developed by Heisenberg, Schödinger, von Neumann, and others - the new theory was understood in the sense of the Bohr´s Copenhagen Interpretation: Quantum mechanics describes the strange behaviour of microscopic objects, but the measuring apparatus is subject to the well known laws of classical physics. In the following decades it became obvious that the validity of quantum mechanics is not restricted to the microscopic world but universally valid and applicable to all domains of the physical reality. In addition to theoretical justifications (quantum probability, quantum logic) this universality is confirmed by numerous macroscopic quantum effects. Superfluidity, macroscopic tunneling, nonlocal correlations at macroscopic distances, and quantum teleportation strongly indicate the universal validity of quantum mechanics.

Universality means that quantum mechanics can be applied also to macroscopic apparatuses. However, in recent years it turned out that a quantum theory of measurement cannot explain the objectification of the measurement results. Moreover, the measurement problem is only a special aspect of the more general problem that quantum mechanics cannot reproduce the well known properties of the classical world. The decoherence on a macroscopic level and the emergence of classical properties on a quantum mechanical basis are serious difficulties which are not yet sufficiently understood. Hence, at the end of the century we are confronted with a quite new situation: The behaviour of microscopic systems is no longer an open question, but the new problem is to rediscover the classical world on a quantum mechanical basis.


THE EINSTEIN, PODOLSKY AND ROSEN PARADOX TODAY

Franco Selleri

The strange nature of quantum correlations between separated systems, pointed out by Einstein, Podolsky and Rosen (EPR), has stimulated a lively debate. The deep incompatibility between the predictions of quantum theory and the consequences of local realism became evident with the 1965 work of Bell, showing that all local hidden-variable models satisfy an inequality which is violated by quantum mechanics. In 1969 Clauser, Holt, Shimony and Horne stressed that Bell’s inequality could be checked experimentally with photon pairs emitted by single atoms, even with the available low efficiency photon counters, if a suitable additional assumption was made. Several experimental investigations of the EPR paradox have accordingly been performed, mostly with photon-polarisation correlation measurements using radiative atomic cascade transitions. In practically all these experiments the inequality was found to be violated and the quantum mechanical predictions turned out to agree with the data. It has been pointed out, however, that the introduction of additional assumptions has led to the formulation of inequalities different from (and stronger than) Bell’s original inequality. The experimental results violated the stronger inequalities but were still compatible with Bell’s original inequality, which was deduced from local realism alone.

From a strictly logical point of view, the choice between local realism and the existing quantum theory has yet to be made. A more critical scrutiny of the incompatibility between the two approaches can come from the study of the EPR paradox in domains where highly efficient particle detectors can be used and the additional assumptions are not needed. An appealing possibility is the decay of a vector mesons into pairs of neutral mesons [e.g.: phi going into two neutral kaons]. Also the copious production of Upsilon meson decays into two neutral B-mesons in a B factory (Stanford, Japan) provides a very useful tool for the study of the problem. Experiments of these types are characterised by: (a) Almost perfect angular correlation between the two mesons; (b) Nearly 100% efficient high energy particle detectors; (c) Low noise.


SOBRE ONDAS Y CORPÚSCULOS:
UN PUNTO DE VISTA LINGÜÍSTICO

Ana Rioja

Desde que el comportamiento dual de la luz y de la materia se planteara en las primeras décadas del siglo XX, es indudable que este paradójico modo de descripción ha permitido explicar un gran número de fenómenos en aquellos órdenes de magnitud en los que interviene la constante de Planck. El famoso experimento de la doble rendija, en especial cuando se trata de fotones o de electrones individuales, expresa de manera paradigmática estas manifestaciones incompatibles que Niels Bohr consideró complementarias. Así, mientras que el comportamiento ondulatorio es observable en forma de difracción y de patrones de interferencia, el corpuscular se pone de manifiesto, por ejemplo, en el efecto fotoeléctrico o en el efecto Compton. Y puesto que no es posible prescindir de ninguno de estos aspectos, no es de extrañar que la llamada "dualidad onda- corpúsculo" se convirtiera en uno de los grandes temas polémicos introducidos por la mecánica cuántica.

Durante los años veinte, hubo de afrontarse, por un lado, una nueva y sorprendente incompatibilidad de lo clásicamente compatible, como eran las variables de estado (posición y momento, en el caso de los sistemas mecánicos), cuya determinación simultánea había permitido a la mecánica clásica fijar por completo el estado de un sistema en un instante dado y su evolución en un tiempo anterior o posterior. Dicha incompatibilidad se reflejaba de modo cuantitativo en las relaciones de incertidumbre de Heisenberg, convertidas así en la expresión de una relación de exclusión entre los pares de magnitudes canónicamente conjugadas que resultaba totalmente ajena a la física precuántica. Por el contrario, en el caso de la dualidad onda-corpúsculo, era preciso buscar la compatibilidad de lo que clásicamente era incompatible por ser lógicamente excluyente. En efecto, parecía que algo no puede ser a la vez onda y partícula, como no puede ser a la vez continuo y discreto.

Resumiendo, tras la irrupción del cuanto de acción de Max Planck, términos tan fundamentales en la física clásica como los de posición, trayectoria, velocidad, onda, partícula, entre otros, comenzaron a exhibir una problematicidad desconocida hasta entonces. Sin embargo, el nuevo formalismo matemático- cuántico creado para dar cuenta del nuevo orden de fenómenos microfísicos era perfectamente consistente, tal como ponía de manifiesto la obra de John von Neumann. Ello quería decir, por tanto, que los problemas no residían en la matemática sino en su interpretación fisica.

Ante el nuevo conjunto de fenómenos cuánticos, el primer desafío era expresar los datos experimentales en un lenguaje formal matemático. Ahora bien, en general, cuanto más abstracto sea el formalismo, mayor necesidad hay de conectarlo con dichos datos experimentales, lo cual exige atribuir significado físico a ese lenguaje meramente formal. Según la "ortodoxa” interpretación de Copenhague, esto planteaba la necesidad de correlacionar los símbolos del lenguaje matemático con los términos del lenguaje ordinario (si bien depurado por la física clásica). En consecuencia, el uso de los términos clásicos anteriormente mencionados sería ineludible, por muy problemáticos que éstos resultaran en su aplicación a los objetos cuánticos. Y, de hecho, ninguna de las interpretaciones existentes de la mecánica cuántica (desde la de Copenhague, planteada en la tercera década del siglo, hasta la formulada en los años ochenta en tomo a la noción de decoherencia) ha construido un lenguaje informal específicamente cuántico, a pesar de que con frecuencia se hayan escuchado voces, como la de John Bell, sugiriendo la necesidad de una "radical renovación conceptual".

Sin embargo, aun cuando no se haya prescindido de términos como partícula, onda, posición, trayectoria, velocidad, etc., en realidad su significado varía parcial o totalmente (esto habrá de ser analizado) cuando se emplean en el contexto cuántico, perdiendo así la univocidad de la que gozan en el contexto clásico y dando lugar a problemas que se refieren al modo como hablamos de los objetos regidos por la constante de Planck.

Partiendo de tales premisas, esta conferencia se propone someter a consideración, desde un punto de vista lingüístico, dos términos clásicos en su aplicabilidad a entidades cuánticas, el de onda y el de corpúsculo, prescindiendo de otros como los ligados a la descripción causal espacio-temporal (posición, momento, etc.). Para considerar el significado semántico del primero de ellos, el de onda, convendrá tener muy presente la noción de "ondas de probabilidad" introducida por Max Bom, mientras el de partícula o corpúsculo exigirá tomar en consideración el principio de indeterminación de Heisenberg, el de superposición de estados y el de no-localidad. En última instancia, se trata de discutir el origen contextual o no del significado de los términos científicos, así como las consecuencias, tanto epistemológicas como ontológicas, que de ello se derivan.


INFORMACIÓN Y QUANTA

Alberto Galindo Tixaire

El siglo que acaba bien puede llamarse el siglo de los cuantos. La irrupción de los principios cuánticos en la física supuso sin duda una de las mayores revoluciones epistémicas de la ciencia contemporánea. Por otro lado, todo apunta a que el próximo siglo va a girar en tomo a la información. Qué mejor homenaje a Planck, en el centenario de su genial "acto de desesperación” que contar cómo los quanta pueden transformar el campo de la información, suministrando por ejemplo protocolos absolutamente seguros para la distribución de claves criptográficas, o permitiendo algoritmos de cálculo que exploten las fantásticas posibilidades del paralelismo masivo que caracteriza a los ordenadores cuánticos y que pueden suponer una mejora dramática en su eficiencia para resolver problemas duros o intratables con los ordenadores convencionales. A ello va dedicada esta charla.


QUANTUM PHYSICS OR THE DRIFT OF PHYSICAL THOUGHT BY MATHEMATICAL FORMS

Michel Paty

In this work, we develop the idea according to which, since Planck’s hypothesis of the quantification of energy exchanges, up to the elaboration of quantum mechanics and also to further developments of the physics of the quantum domain, the discovery of mathematical relationships has allowed physical knowledge to penetrate inside the atomic and subatomic worlds that laid outside the reach of sensible knowledge. These relationships have proven to correspond to physical features that are characteristic of quantum phenomena. The epistemological status of these relationships has been considered as problematic for a long time, and was immersed in "physico-philosophical" considerations on the "interpretation". Nevertheless the case was not so radically new, if one reminds preceding phases of the utilization of mathematical quantities as a "tool of thought" for the physical theory, for example in classical mechanics, in electromagnetism, in thermodynamics, and in general relativity. Justifications of this utilization were linked to various "interpretations" of the physical scope of mathematical relationships. All well considered, it might not be different with the apparently abstract formulation of quantum mechanics. If this is true, the problem of the interpretation is brought to the epistemological status of the quantum magnitudes that serve to describe physical systems. Now, precisely, the present understanding of quantum physics naturally leads to consider theoretical magnitudes, under their mathematical form, as "direct" representations of physical systems in the quantum domain. It remains to evaluate which kinds of changes (and of simplifications) on the problems of interpretation this would entail.


EL ESPACIO-TIEMPO EN LA TEORÍA CUÁNTICA

Víctor Aldaya

Uno de los problemas básicos de la Teoría Cuántica desde sus comienzos ha sido su fuerte ligazón a la Mecánica Clásica, que ha necesitado como soporte; se habla tradicionalmente de Cuantización (de una teoría clásica subyacente). Es claro que todo avance en Física debe presentarse como una correccion a resultados previos, pero en el caso de la Teoría Cuántica la corrección se refiere en gran medida a los propios principios y a la estructura global de la Teoría. Aquí presentamos una formulación de la Teoría Cuántica que describe sistemas que no son necesariamente la cuantización de la variedad de soluciones de un sistema clásico. El método está basado enteramente en el concepto de simetría, y la naturaleza cuántica del sistema resulta estar asociada a la estructura topológica del grupo de Lie que codifica esa simetría. Una particularidad de nuestro formalismo es que reproduce, como solución, el propio espacio-tiempo donde evoluciona el sistema físico. Esta característica es de vital importancia en la formulación y entendimiento de la Gravedad Cuántica.


LA TEORÍA DE LA RELATIVIDAD (EINSTEIN 1905 Y 1917) EN LA GÉNESIS Y DESARROLLO DE LA TEORÍA ONDA-CORPÚSCULO DE LOUIS DE BROGLIE

Francisco Aragón de la Cruz

Los trabajos de Einstein, 1905 (1) y 1917 (2) establecieron el concepto de fotón como entidad física independiente, con un impulso p=h n /c=mc; esto hizo reflexionar a Louis de Broglie, sobre la idea de fotón como un átomo de luz, con una masa finita y posibilidad de formar moléculas a semejanza de un gas. La forma de dar realidad a esta idea era llegar con ella hasta las dos fórmulas emblemáticas de la teoría de la radiación del cuerpo negro, la de Wien y la de Plank, cuyo punto débil común era la utilización de la teoría electromagnética de Maxwell para su obtención.

Louis de Broglie publica en 1922 un artículo acerca de la radiación del cuerpo negro (3) en el que deduce la ley de Wien por medio de la termodinámica, la teoría cinética de los gases y la teoría cuántica, sin utilizar la teoría electromagnética de Maxwell, y considerando los fotones como "átomos de luz". El éxito le lleva a desarrollar la fórmula de Plank, usando los fotones como átomos de luz que forman conglomerados o moléculas de dos tres o más átomos de luz, en el siguiente trabajo que publica el mismo año (4).

Estas dos publicaciones son un antecedente del trabajo sobre mecánica estadística cuántica de Bose publicado dos años después (1924), y un año antes de la publicación de la explicación del efecto Compton (1923), que estableció de una forma experimental y definitiva la existencia de los cuantos de luz. Este interés por las propiedades de la luz como partículas (átomos de luz según de Broglie), motivó su investigación hacia el aspecto ondulatorio de los electrones considerados como partículas desde su descubrimiento en 1897.

Estas ideas cristalizaron en tres artículos cortos publicados los días 10, 14, de septiembre y 8 de octubre de 1923 en los C. R. De la Ac. Ciens. De París (5, 6, 7), y una nota muy corta suministrada a Nature el 12 de septiembre (8), resumen de los dos primeros artículos. Estas notas, que contienen lo esencial de su teoría, aparecen resumidas en un artículo del Phil. Mag. (9) en 1924 dirigido al habla inglesa y publicado gracias a la amistad que su hermano mantiene con el Cavendish Laboratory. Por primera vez aparece su famosa relaciónl = h/mov, pero camuflada en forma vectorial, en una nota añadida a la prueba de imprenta, al final del artículo.

Este mismo año, 1924, las 7 u 8 páginas de sus notas en los C.R. son desarrolladas en su tesis doctoral leída en noviembre en la Facultad de Ciencias de la Sorbona, y publicadas en 1925 (10); solamente una vez, en el capítulo dedicado a "la mecánica estadística y los cuantos" aparece su fórmula l =h/mv, para las ondas llamadas entonces por él "ondas no materiales o ficticias", al no transportar energía y no contradecir la teoría de la relatividad restringida.

Luego si los primeros artículos sobre mecánica cuántica ondulatoria son de 1923, las ideas que los originaron surgen en la mente de de Broglie en 1922, en relación con sus publicaciones de ese año sobre los "átomos de luz" antes citados.

El fundamento de su teoría se basa en dos generalizaciones:

 a) Supera la paradoja que lleva implícita al igualar la física relativista con la cuántica: m0c2=h n 0. Esta paradoja la supera deduciendo dos frecuencias que corresponden a dos ondas ligadas a la partícula (electrón) y cuyas velocidades v y V, de Broglie demuestra matemáticamente con base física que necesariamente están relacionadas así: vV=c2, pues es la única posibilidad para que ambas ondas estén en fase en cualquier punto del espacio en el que se encuentren y de este modo no se eliminen.

b) El siguiente análisis que hace, es unir el principio de Fermat de la óptica geométrica con el de Maupertuis de la mecánica clásica, ya hecho por Hamilton, pero ahora con resultados nuevos al introducir la mecánica relativista y la cuántica; de esta igualdad surge la fórmula l =h/mov.

Este contenido de la mecánica relativista que aparece en el comienzo de la mecánica cuántica ondulatoria implica la existencia de dos observadores, uno externo al fenómeno observable y otro dentro de él (en el electrón por ejemplo); lo que nos lleva a consideraciones epistemológicas cuántico-relativistas.

1) Einstein, A. "Uber einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt" Ann. Der Phys. 17 132-148, (1905)

2) Einstein, A. "Zur Quantentheorie der Strah1ung" Physik Zeitschr. 18, 121-128, (1917).

3) Broglie, Louis de; "Rayonnement noir et quanta de lumiere", J. Phys. (VI) 111, 422-428 (1922)

4) Broglie, Louis de; "Sur les interférences et la theorie des quanta de lumiere", C.R. Acad. Sci. (París), 175, 811-813, (1922); también este artículo aparece la ley de Wien.

5) Broglie, Louis de; "Ondes et cuanta", C.R. Acad. Sci. (París), 177, 507-510, (1923).

6) Broglie, Louis de; "Quanta de lumiere, diffraction et interferences", C.R. Acad. Sci. (París), 177, 548-550, (1923)

7) Broglie, Louis de; "Les quanta, la theorie cinetique des gaz et le principe de Fermat", C.R. Acad. Sci. (París), 177, 630-632, (1923).

8) Broglie, Louis de; "Waves and quanta"; Nature, 112, 540, (1923).

9) Broglie, Louis de; "A tentative theorie of light quanta"; Phil.Mag. XLVII, 446-458, (1924).

10)Broglie, Louis de; "Recherches sur la theorie des quanta", Tesis doctoral, Facultad de Ciencias, Universidad de París, leída el 25 de noviembre de 1924, publicada después en Ann. des Physique, 3, 22- 127, (1925) con igual título.


ESTABILIDAD DE LAS TRAYECTORIAS Y DISTRIBUCIÓN DE PROBABILIDAD EN DINÁMICA BOHMIANA

F. Barranco, G. Potel,   M. Muñoz  y  J.F.Bienvenido

La Dinámica Bohmiana es una de las posibles interpretaciones de la función de onda mecánico-cuántica, Y(x,t), cuya principal virtud es la de mantener una evolución estrictamente causal, inclusive durante los procesos de medida. En la Dinámica Bohmiana la probabilidad de encontrar una o más partículas en una determinada zona del espacio depende no sólo de la evolución de la función de onda sino también de la distribución inicial de partículas. Sin embargo la experiencia muestra, y así se establece en la interpretación estándar de la Mecánica Cuántica, que la distribución espacial de las partículas está  completamente determinada por el módulo al cuadrado de la función de onda,|Y(x,t)|2.

En su artículo original Bohm soslayaba este problema imponiendo la condición ad hoc de que la distribución inicial de las partículas no es cualquiera sino precisamente el cuadrado de |Y(x,t=0)|, y demostraba que de este modo en cualquier instante posterior (o anterior) su dinámica conducía a una distribución siempre proporcional a |Y(x,t)|2. Posteriormente Bohm y Vigier modificaron la ecuación de movimiento de las partículas, añadiendo un término de difusión osmótica inspirados en la teoría del movimiento Browniano, término que provoca que cualquier distribución inicial tienda con el paso del tiempo a coincidir con |Y(x,t)|2.

En el trabajo que aquí presentamos mostramos en algunos casos particulares sencillos pero relevantes (el del potencial cuadrado y el del potencial de oscilador armónico) que las propiedades de estabilidad de las trayectorias bohmianas pueden jugar un papel muy importante en la tendencia de la distribución de partículas hacia la forma funcional |Y(x,t)|2. Esto se ilustra en la figura superior adjunta, donde se muestra, para el caso concreto de la combinación lineal al 50\% de los dos primeros estados del oscilador armónico, las trayectorias bohmianas de un conjunto de 60 partículas inicialmente distribuidas de modo uniforme y sometidas a una perturbación estocástica de pequeña intensidad. Puede observarse como, al transcurrir el tiempo, en la distribución de las partículas aparecen zonas despobladas y zonas de mayor densidad. Dichas zonas se generan en correspondencia con los mínimos y máximos de |Y(x,t)|2 respectivamente. Esto puede apreciarse comparando con la figura inferior, en la que, conforme a la hipótesis ad hoc de Bohm ya mencionada, la distribución inicial de las partículas corresponde |Y(x,t)|2 y donde las trayectorias se han calculado sin añadir ninguna perturbación.


EPR-PARADOX AND BELL-INEQUALITIES FOR
ENTANGLED PAIRS OF NEUTRAL KAONS

Albert Bramon

Quantum entanglement and non-locality -as shown by the distant and apparently disjoint parts of some composite systems- are extremely peculiar features of Quantum Mechanics to which much attention has been devoted from both physical and more philosophical points of view. Since the seminal paper by Einstein, Podolsky and Rosen (EPR), these quantum features have been also a continous source of speculations on the "spooky action-at-a-distance", better characterized as non-locality in the correlations of EPR-pairs. Well-known and extremely useful tools to probe into this non-locality are the famous Bell-inequalities first proposed around 1964 (1).

Bell-inequalitíes haye been subjected to experimental tests with the general outcome that they are violated, i.e. local realistic theories fail and nature is indeed non-local. If so, "local realism" -an attitude which seems consubstantíal with science- should be abandoned. However, possible loopholes in these tests (due, in particular, to the low efficiencies of the detectors at use) have been pointed out (2). There is therefore a continous interest to test Bell-inequalities in complementary experiments and different branches of physics. Possible places are electron-positron annihilation machines copiously producing EPR-entangled pairs through the reaction e+e-. Such a -factory, Dane, is now operating in Frascati and ¡t is expected to produce around 109 entangled pairs per year (3).

Due to their hadronic nature (the K0 meson is a dquark-antiquark bound state and is its corresponding dantiparticle), the detection efficiencies for these neutral kaons are very high and the detection loophole is thus circumvented. For this arid other reasons, the EPR-phenomenon and the associated Bell-inequalities specified to neutral kaon pairs have been considered by several authors, as reviewed by Selleri et al. (4). More recently, there has been a renewed interest in this subject but, in spite of several claims, we believe that most of the proposed Bell-inequalities do not follow strictly from local realism. We have reconsidered the whole issue using neutral kaon regeneration phenomena- As a,result, new Bell-inequalities have been obtained such that they are: i) a strict consequence of local realism, ii) violated by Quantum Mechanics and iii) testable by existing machines such as Da(Dne (5,6).

(1) J. Bell, Physícs 1 (1965) 195; J. Bell, "Speakable and Unspeakable in Quantum Mechanics", Cambridge University Press, 1987.

(2) E. Santos, Phys. Rev. Lett. 66 (1991) 1388; Phys. Rey. A46 (1992) 3646- Phys. Lett. A212 (1996) 10; N. Gisin and A. Go, quant-phys/004063.

(3) For a survey on the physics at a 4>-factory see « The Second Dane Physics Handbook`, eds. L. Maiani, C. Pancheri and N. Paver, INFN, Frascati 1995.

(4) F. Selleri (ed.), Quantum Mechanics versus Local Realism, Plenum Publishing Company, 1988; A. Afriat and F. Selleri, The Einstein, Podolsky and Rosen Paradox, Plenum Press, New York, 1999.

(5) A. Bramon and M- Nowakowski, Phys. Rey. Lett. 83 (1999) 1; quant-phys/OO, to appear shortly.

(6) B. Ancochea, A. Bramon and M. Nowakowski, Phys. Rey. D60 (1999) 094008.


CRIPTOGRAFÍA CUÁNTICA EFICIENTE

Adán Cabello

El problema de cómo transmitir información clásica (es decir, información que puede expresarse como una secuencia de ceros y unos) entre dos personas que inicialmente no comparten ningún tipo de información y, al mismo tiempo, prevenir que cualquier otra persona no autorizada acceda a esa información sin ser detectada, es un problema que no tiene solución por métodos clásicos. Sí la tiene, sin embargo, usando sistemas cuánticos. Esto fue descubierto en 1984 por Bennett y Brassard, en un trabajo que marcó el nacimiento de la hasta hoy más fructífera "aplicación" de los fundamentos de la Mecánica Cuántica: la Criptografía Cuántica. Desde el punto de vista clásico la "dificultad" del problema antes mencionado reside en cumplir con el requisito de que "nadie no autorizado pueda acceder a la información". En este trabajo mostramos cómo, de manera sorprendente, la Mecánica Cuántica no sólo resuelve el problema sino que puede resolverlo con la misma eficiencia que si el requisito de que "nadie..." no existiese. La eficiencia en este contexto se define como el cociente entre el número de bits transmitidos secretamente, divido entre el número de sistemas cuánticos de dos niveles ("qubits") usados en la transmisión de toda la información necesaria en el proceso (tanto cuántica como clásica).


EL ORIGEN DE H Y SU SIGNIFICADO FÍSICO Y EPISTEMOLÓGICO
EN LAS PRIMERAS LEYES CUÁNTICAS

Yolanda Cadenas Gómez

Hay muchos filósofos y físicos, como Richard Feynman, que piensan que no se puede dar una explicación de la dualidad cuántica más profunda que la de su descripción experimental; sin embargo, expondré que, indagando en el origen y el significado físico y epistemológico del cuanto de acción, h, encontramos un "mecanismo teórico", que es el último responsable, hasta ahora conocido, de este doble comportamiento, corpuscular-ondulatorio, de los objetos cuánticos.

Es decir, a lo largo de esta ponencia, argumentaré cómo la discontinuidad del cuanto de acción es la causante de la dualidad y, con ella, del indeterminismo y de la imposibilidad de reducir el valor de la interacción observación más allá del valor crítico de la constante de Planck. Para ello, estructuraré en siete pasos esta explicación, la cual se basa en tres consideraciones generales: 1) las implicaciones y el significado de las relaciones de indeterminación; 2) las implicaciones epistemológicas y el significado fisico del cuanto de acción; 3) el carácter empírico de la dualidad, tras mostrar una cierta forma de vincular el modelo corpuscular con las propiedades cinemáticas (a través del "efecto Compton") y la relación entre el modelo ondulatorio y la medición de las propiedades dinámicas, que el fenómeno de interferencias del electrón (ondas materiales) sacó a la luz.

De este modo, se concluirá que el fracaso de la descripción espacio-temporal, el problema de la objetividad (en tanto que implica una interacción observacional ineludible, en el momento de la medición) y el problema del determinismo, se originan en la aparición del cuanto de acción, ya que su significado físico implica, sobre todo, una vinculación interna de las magnitudes dinámicas y cinemáticas, junto con las propiedades ondulatorias del modelo luminoso (radiación) y las propiedades corpusculares del modelo atomista (materia). Por lo tanto, considerar que la "constante de Planck es, en última instancia, el resorte de todo esto, significa que ella es la esencia de la física cuántica. De modo que, si buscamos una teoría que la sustituya (o que la "complete causalmente"), hemos de eliminar a h como constante física (con un valor discreto), es decir, como magnitud discontinua y cuantizada, para convertirla en una magnitud continua, la cual puede reducir su valor indefinidamente. Einstein dedicó los últimos treinta años de su vida a buscar una teoría así, guiado por su idea de una teoría de campo único, basado, obviamente, en la noción de continuidad; pero, por paradójico que parezca, fue Bohr quien le convenció de esto, haciéndole ver que, para elaborar una teoría sobre el mundo atómico distinta de la física cuántica, no debía admitir la existencia fisica de h: su valor como una magnitud física real, con "sentido físico" o "significado intuitivo".


CARGA TEÓRICA Y OBSERVACIÓN:
EL RAZONAMIENTO RETRODUCTIVO

David Calvo Vélez

La crítica al lenguaje de observación neutral defendido por la Concepción Heredada (donde los términos observacionales se obtienen directamente a partir de los hechos) la realiza N. R. Hanson, en su libro "Patterns of Discovery", a partir del estudio de la visión como experencia, y no como estado físico. Si dos observadores ven cosas diferentes en X quiere decir que los observadores parten de un distinto conocimiento de X. La observación se ve guiada por la teoría y los términos van cargados teóricamente desde el momento que suponen los demás términos, axiomas y referencias que aparecen en la teoría. El concepto incluye el sistema, y éste los hechos. La Mecánica Cuántica es primariamente una búsqueda para la inteligibilidad; después, secundariamente, una búsqueda de objetos y hechos. El científico, ante objetos desconocidos, busca coherencia con un fondo de conocimiento, de tal manera que puedan entrar en una exposición sistemática. Nuestro conocimiento es fundamentalmente linguístico y se amplía o cambia con objeto de acomodar los fenómenos a nuestra organización conceptual.


EL DESCUBRIMIENTO DE LA FISION ESPONTANEA DEL
URANIO: LENINGRADO 1940

Natividad Carpintero Santamaría

La Unión Soviética alcanzó otro hito científico importante en su historia cuando los científicos Georgi Flerov y Konstantin Petrzhak descubrieron en el mes de octubre de 1940 la fisión espontánea del uranio.

Este descubrimiento se llevó a cabo en situaciones muy precarias dentro del Instituto del Radio de la ciudad de Leningrado en un durísimo contexto humano y social, en plena guerra con Finlandia y soportando temperaturas de hasta 401 bajo cero. Los experimentos se realizaron repetidas veces a lo largo de un año debido al escepticismo del gran físico soviético Igor Kurchatov que no quería apresurarse a comunicar a la comunidad científica internacional un hallazgo tan importante.

La física nuclear había sido objeto de investigación en la Unión Soviética desde la década de los años 20 de la mano de Igor Kurchatov en el Instituto de Física Técnica de Leningrado, aunque todo ese proceso de investigación se vio envuelto desde el principio por una disciplina férrea, y de peligro mortal impuesto por el gobierno de Iossif V. Stalin del que no se vieron exentos los propios científicos.


MAXIMUM ENTROPY PRINCIPLE AND THE INFERENCE OF
ENTANGLED STATES

A. Rigo, A. R. Plastino, A. Plastino and M. Casas

The study of the entangled states of composite quantum systems is nowadays the subject of an intense research activity [1]. This is due to the relevance of entanglement as one of the most fundamental and non-classical features of quantum systems as well as to the new technological opportunities allowed by the deliberate manipulation of entangled states [2]. The problem we are going to address here consists on the estimation of the amount of entanglement associated with a partially known quantum state. Jaynes' Principle of maximum Entropy (MaxEnt) provides a general statistical inference method for the inference of quantum states when only partial information is available. It has been successfully applied to many problems of statistical inference arising both in pure and applied physics. Alas, it was recently realized that Jaynes' principle may create ``fake" entanglement [3]. For example, the MaxEnt density matrix may correspond to an entangled state even if there exist separable states compatible with the prior information. This constitutes cogent evidence for asserting that Jaynes' MaxEnt scheme, at least in its standard form, is not the appropriate prescription to infer quantum states in those occasions in which we are particularly interested in the assessment of the available amount of entanglement [3].

The main purpose of the present effort is to consider, in connection with the statistical inference of entangled quantum states, an alternative implementation of Jaynes' MaxEnt principle. Such a formulation of Jaynes' prescription, known as the ``maximum entropy -- minimum norm method", has recently been applied to a variety of both classical and quantum statistical inference problems [4,5]. In the present work we shall consider an extension of this approach, known as the pseudoinverse formalism [6]. In order to illustrate these ideas we shall apply them to the same situation considered in [3] and compare our results with the ones reported there. As we shall see, at least in the case considered by Horodecki et al., if there are separable states consistent with the available prior information the Maximum Entropy - Minimum Norm scheme yields states with no entanglement [7]. Moreover, the extended version of that formalism permits to find all the physical states, separable or not, consistent with a given prior information.

[1] Review articles on quantum entanglement and its applications, as well as a detailed and updated bibliography on these matters can be found in Revista Española de Física 14 (2000).

[2] Hoi-Kwong Lo, S. Popescu, and T. Spiller (editors), Introduction to Quantum Computation and Information (World Scientific,River Edge, 1998).

[3] R. Horodecki, M. Horodecki, and P. Horodecki, Phys. Rev. A 59 (1999) 1799.

[4] E.D. Malaza, H.G. Miller, A.R. Plastino, and F. Solms, Physica A 265 (1999) 224.

[5] A. Rigo, M. Casas, and A. Plastino, Phys. Rev A 57 (1998) 2319.

[6] M. Casas, A. Plastino, J. Perez, and A. Rigo, Physica A 269 (1999) 476.

[7] A. Rigo, A.R. Plastino, A. Plastino, and M. Casas, On the Inference of Entangled States: A Maximum Entropy - Minimum Norm Approach, Physics Letters A (2000), in press.


SEMICLASSICAL DESCRIPTION OF STERN-GERLACH EXPERIMENTS

S. Cruz-Barrios and J. Gómez-Camacho

The motion of neutral particles with magnetic moments in an inhomogeneous magnetic field is described in a semi-classical framework. The concept of Coherent Internal States is used in the formulation of the semiclassical approximation from the full quantum mechanical expression. The classical trajectories are defined only for certain spin states, that satisfy the conditions for being Coherent Internal States. The reliability of Stern-Gerlach experiments to measure spin projections is assessed in this framework.


LA RELACIÓN ENTRE LENGUAJE Y REALIDAD EN LA CONCEPTUALIZACIÓN DEL MUNDO CUÁNTICO

Georgina Cuadrado

Esta presentación supone una aproximación desde el punto de vista lingüístico-cognitivo al discurso científico relativo a la física de partículas y a la mecánica cuántica. Dicho discurso se nutre desde los primeros momentos de su formación de metáforas conceptuales y expresiones metafóricas que, organizadas de una manera coherente, contribuyen a configurar y estructurar su sistema conceptual. En ella se exponen algunos de los principales esquemas imágenes que subyacen en el lenguaje de la física cuántica, un lenguaje creado por los propios físicos para expresar una realidad totalmente nueva, que no tiene ningún punto en común con las otras realidades conocidas por el hombre hasta aquel momento.

La conceptualización de la realidad cuántica se basa en ocasiones en la proyección de unos dominios concretos y susceptibles de proporcionar un marco estructural bien configurado sobre aquellos dominios difíciles de comprender y manejar. Surgen así las metáforas ontológicas, las personificaciones y la proyección de unos modelos sobre otros. Dichas metáforas, a su vez crean o suscitan nuevas analogías.

En esta presentación se analiza, entre otros, el esquema imagen del dominio que se utiliza para conceptualizar distintos procesos implicados en la interacción entre las partículas elementales y las diferentes fuerzas físicas de la naturaleza, así como los sub-esquemas suscitados a partir de éste.


A NEW VIEWPOINT ON THE FOUNDATIONS OF QUANTUM LOGIC

Antonino Drago & Antonio Venezia

By looking for an escape from "the labyrinth of quantum logic" one finds out two classifications - Mittelstaedt's one (1978) and Holdsworth and Hooker's one (1980) - of all attempts elicited for recognising a well-defined quantum logic. By going beyond the few suggestions offered by the authors of both classifications, their respective interpretative categories are extracted. More sharp classificatory classes are obtained.
Then the two sets of categories are mutually compared and a common viewpoint is obtained. Their categories essentially concern the mutual relationships among a physical theory, its mathematics and its logic. This viewpoint results to be alike to a more elaborated viewpoint I suggested in previous papers, i.e. to recognise as foundations of a scientific theory two basic options on the kind of mathematics and on the kind of logic.
From an application of the last viewpoint to quantum mechanics this theory results to be constituted by two separated parts, on one hand the measurement process and its methodological principles, and on the other hand the mathematical apparatus for representing unperturbated evolution of a system -, just what von Neumann's paradox evidentiates. Being mathematical deductions supported obviously by classical logic, a non-classical logic has to be recognised in the part concerning measurement only - in particular, Heisenberg's methodological principle. Hence, we have to inspect for non-classical logic in methodological principles only of quantum mechanics, instead to either unspecified experimental situations or sophisticated algebraic structures.
However, non-classical logic is not specific for quantum mechanics. In classical physics too some theories present rather than axioms-principles, methodological principles. It is easy to recognise that each principle of this kind belongs to non-classical logic, since it is a double negated sentence whose corresponding positive sentence does not hold true for lack of scientific evidence - just as in intuitionistic logic. For instance, "It is not true that heat is not work"; its affirmative counterpart, the existenxe of a reserve of all energies U, lacks of direct operative evidence. Some previous scholars (Destouches-Février, Fine, Bell, Gauthier, Adelmann and Corbett) already considered the failure of the law of double negation - rather than (Birkhoff and von Neumann) distributive law - as the characteristic feature of quantum logic. By comparing all these instances, one remarks that, whereas in classical theories non-classical logic affects either one variable only - velocity, in mechanics - or some non-state variables - heat and work in thermodynamics, instead in quantum mechanics non-claasical logic affects the whole set of variables defining a state of the system. Accordignly, quantum logic is at the same time an old kind of logic and a new one. However, one has no needs to appeal to a different non-classical logic as pertaining to a physical theory, than intuitionistic logic.
Moreover, by following Brouwer, it is not assumed that the resulting logic has to be presented in an axiomatic way from some axiom-principles; rather, methodological principles may be the adequate principle for organising the system of the logic too. In this way all problem of defining quantum logic through an accurate set of axiom-principles are left aside.
The new interpretation is applied in order to give an evaluation upon past strategies for recognising quantum logic. Then it is applied to those formulations of quantum mechanics that present as first a methodological principle, first of all Heisenberg's principle. Heisenberg's matrix mechanics and moreover T.F. Jordan's recent version (1986) are suitable candidates. Unfortunately, these formulations are incomplete with respect to unbounded operators. Hence, we achieve a well-defined point of departure for sharply define quantum logic at the cost of referring to some past attempts of formulating quantum mechanics, without disposing at present of completed versions of them.
In particular, it is relevant for our purposes that Lobachevskij's main presentation of hyperbolic geometry (Theory of Parallels, 1840) - which is founded upon a methodological principle - is developed in a framework at all defined in a mathematical way. It was from this geometry that in 1907 Vasiliev induced his system of paraconsistent logic. One may prove that Vasiliev logic may be interpreted in terms of previous synthetic method and double negated statements. At last a linkage between quantum mechanics and hyperbolic geometry is established through Vasiliev's logic. A comprehensive paraconsistent logic of both constitutive parts of quantum mechanics results
.


RECONSIDERING THE CONVENTIONAL INTERPRETATION
OF THE UNCERTAINTY RELATIONS

Spiridon Dumitru

The Conventional Interpretation of Uncertainty Relations (CIUR) , due to the partisans of Copenhagen School, dominated a great part of the history of quantum physics. CIUR has a large popularity becoming a true myth which dominates our days science.
But in spite of its popularity the CIUR still generate controversies, because over the years a lot of its defects were signaled. These facts justify a reinvestigation of the questions connected with the interpretation/significance of UR.
We develop such a reinvestigation starting with a revaluation of the main elements of CIUR. So one finds that all the respective elements are troubled by insurmountable defects. Then it results the indubitable failure of CIUR and the necessity of its abandonment.
Consequently the UR must be deprived of their quality of crucial physical formulae. In this way we come in consonance with the guess (Dirac 1963) that: ''uncertainty relations in their present form will not survive in the physics of future''.
Moreover the theoretical UR are shown to be not indicators of measuring accuracies but simple fluctuations formmulae with natural analogous in classical (non-quantum) physics. That is why we agree with the John S. Bell's opinion(from 1985) that :"''uncertainty principle: it has to do with the uncertainty in predictions rather than the accuary of measurement. I think in fact that the word ''measurement'' has been so abused in quantum mechanics that it would be good to avoid it altogether''".
Also we opine that the description of the measuring uncertainties (traditionally associated with UR) can be approached from a new perspective by using some concepts from information theory. Then the Planck's constant h (also associated with UR) appears to have (Dumitru, 1993)a significance of generic indicator for quantum stochasticity (i.e. for quantum fluctuations) similarly with the role of Boltzmann's constant k in respect with the thermal stochasticity (i.e. for classical fluctuations from non-quantum statistical physics).
In the spirit of the above presented views one can approach some other problems connected with the foundation and interpretation of quantum mechanics, both from physics and philosophy perspective.


LOCAL REALISM FOR PAIRS

G. Garbarino

In this talk I discuss the predictions of local realistic theories forthe observables concerning the evolution of a entangled pair. It is shown, in agreement with Bell's theorem, that the most general local hidden--variable model fails in reproducing the whole set of quantum--mechanical joint probabilities.
It is possible to achieve this conclusion by employing two different approaches. In a first one the local realistic observables are deduced from the most general premises concerning locality and realism, and Bell--like inequalities are not employed.
The other approach makes use of Bell's inequalities. Under particular conditions for the detection times, with the former approach one obtains that the discrepancy between quantum mechanics and local realism for the time--dependent asymmetry is not less than 20%. The same incompatibility can be made evident by means of a Bell--type test, by employing both Wigner's and (once properly normalized probabilities are used) CHSH's inequalities. Because of the relatively low experimental accuracy, the data obtained by the CPLEAR collaboration do not allow for a decisive test of local realism. Such a test, both with and without the use of Bell's inequalities, should be feasible in the future at the Frascati
F-factory.


THE ONTOLOGICAL SIGNIFICANCE OF QUANTUM THEORY

Alexandru Giuculescu

Quantum Theory was in our century under debate of physicists jointed by mathematicians, logicians, and epistemologists. The paper deals with a philosophical topic wich was only implied in polemical arguments of the scientists, and has enjoyed philosophers’s interest mainly in textual and contextual analyses of physicists’s statements.
The subjacent ontology of Quantum Theory may be approached (i) either by a critical analysis of the writing issued from creators and commentators of this theory , (ii) or by trying to outline a regional ontology inspired from Husserl’s and Heidegger’s doctrines and attempting to go beyond the current dualisms, like that of Eleatic philosophers and Heraclitus, or of Democritus and Plato, as Heisenberg had suggested.
Starting point of the second alternative may by syntagm "the universe of discourse" hinted at by Leibnitz : "I have the right to suppose that a thing is possible so long at its impossibility is not proved" (Theodicy, Abridgement). The referential "thing" may be component of the natural or the artificial worlds, the latter including also statements of hypotheses as well as the precondition to form the core of a scientific theory.
The regional ontology of Quantum Theory may take into account the permanent interply of perceiving and conceiving which Heisenberg instantiated by the word "state" describing some potentialities rather than a reality and leading to a clear-cut distinction between, on the one side, atomic events analysed through experiments, and, on the other side, the atoms or elementary particles appearing as potentialities rather than a reality and differing from things or real facts . Similarly, the methodological difference between "Gedankenexperiment" and effective experiment leads from epistemological interpreatations to ontological issues as each physical theory tends to be a system of formalised concepts build up through operations measuring size, shape, etc.., as s step from thought to phenomenon in order to produce and, eventually, to reproduce the latter accounting also for technological performances.

References

A. Giuculescu , "Order versus chaos or the ghost of indeterminacy" World Congress of Philosophy. Boston , August 1998, integral text on http://www.bu.edu/wcp/Papers/Scie/ScieGiuc.htm.


EL DETERMINISMO CLASICO DESDE UN ENFOQUE SEMANTICO
DE LAS TEORÍAS

Germán Guerrero Pino

La comunicación busca presentar y analizar la definición de determinismo para sistemas clásicos cerrados desarrollada por van Fraassen. Esta propuesta tiene la característica de precisar la idea intuitiva y general de que “el pasado determina el futuro”. También se abordan algunos problemas relacionados con el determinismo de manera más concreta y directa, problemas como: cabe aplicar el adjetivo “determinista” al mundo como un todo o a algunos sistemas físicos concretos o a las teorías o a las leyes?; qué entonces hay que entender por indeterminismo clásico? La discusión que lleva a la definición de determinismo está orientada principalmente por las reflexiones hechas desde de la filosofía de la ciencia, especialmente por Russell, Montague y van Fraassen; además, la definición se desarrolla en el contexto de un enfoque semántico de las teorías empíricas y a través del uso de un concepto modal como “posibilidad”.

De modo que, de acuerdo con lo anterior, se comienza por presentar los aspectos principales del enfoque semántico de las teorías defendido por van Fraassen y en la parte final se discute la interpretación y uso de las modalidades dentro de las teorías. Por otra parte, los elementos principales que contiene la definición de determinismo son:

a)       El carácter funcional del determinismo, propuesto por Russell.

b)       La simetría de traslación del tiempo: la periodicidad en los estados de un sistema o el hecho de que el tiempo no influye en cómo un sistema determinista cambia; elemento destacado por Montague

c)       El determinismo en términos de historias posibles –trayectorias posibles, mundos posibles- de un sistema más que en función de estados determinados del sistema; propuesta de van Fraassen.

Este trabajo lo desarrolla principalmente en: van Fraassen, Bas C., A Formal Approach to the Philosophy of Science, en Paradigms and Paradoxes: the philosophical challenge of the quantum domain. Pittsburgh: University of Pittsburg Press, 1972, pp. 303-366; van Fraassen, Bas C., Laws and Symmetry. New York, Oxford University Press Inc., 1989, pp. 250-256; van Fraassen, Bas C., Quantum Mechanics: An empiricist view. New York, Oxford University Press Inc., 1991.


INSTANTES POLÉMICOS. LA BÚSQUEDA DE UN
CIERTO GUIJARRO

Fernando González Grisolía

"…la mecánica cuántica es muy impresionante. Pero una voz interior me dice que no es todavía la verdad. La teoría produce mucho, pero difícilmente nos acerca más al secreto del viejo. En todo caso, estoy convencido de que Él no juega a los dados. Ondas en el espacio de 3n dim+ensiones, cuya velocidad está regulada por la energía potencial…"1.

Ésta, una de las citas del judío que más fama ha cosechado, es el fiel reflejo del espíritu investigador que habitaba en su persona.
El acérrimo desacuerdo con la escuela de Copenhague, apoyado por las ganas que esgrimía de ahondar en la verdad del mundo microfísico, ha dado lugar a una de las más fervientes polémicas que se recuerdan sobre el estudio de la naturaleza.
El físico Niels Bohr, padre, conjuntamente con Werner Heisemberg, de la nueva teoría cuántica y defensor del Principio de Complementariedad desarrollado por la escuela, se enfrentará, a su vez, a los constantes argumentos que el físico de la relatividad proliferaba con la sola intención de invalidar el instrumentalismo y funcionalismo con que la mecánica cuántica daba fe de la realidad.
Éste será precisamente el escenario que se intentará presenciar a lo largo de todo el artículo. El desarrollo tanto desde un punto de vista histórico, como epistemológico, de la polémica Einstein & Bohr. Se presentarán sus respectivos argumentos, réplicas y contraréplicas en cuatro momentos puntuales de significativa importancia.
El primero de ellos, nos acerca a Bruselas, allá por el 1927, donde se celebró el V Congreso de Física del Instituto Solvay;
El segundo, tendrá lugar en VI Congreso Solvay celebrado en 1930;
El tercero, será el estudio comparado del artículo que Albert Einstein escribió en 1935 con la colaboración de Boris Podolsky y Nathan Rosen, Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?, y la réplica Bohriana;
Para terminar, en el 1948, con un artículo que publicó Einstein en el segundo número de la revista Dialectica, denominado: Quanten-Mechanik und Wirklichkeit, y el correspondiente de Bohr: On the Notions of Causality and Complementarity, publicado en el mismo número.
Así, de esta manera, se pretende hacer un recorrido temporal de la polémica, a la vez que seguir el hilo argumentativo, con sus respectivos cambios de estrategia, de una disputa que Einstein nunca quiso dar por perdida.

_________________
1 PAIS, Abraham; "El Señor es sutil…", La ciencia y la vida de Albert Einstein, Carta de Einstein a Born, por Diciembre de 1926, Ariel, Barcelona, 1984, pág 445.


EVENTS AS ENTITIES OF ALGEBRAIC QUANTUM FIELD THEORY

Frank Haettich

The algebraic approach to Quantum Field Theory (QFT), known as Algebraic Quantum Field Theory (AQFT), originated mainly from the work of R. Haag and H. Araki during the early sixties and is today one of the most powerful tools for the rigorous investigation of mathematical and physical questions concerning the structure of QFT. This is first of all because of its clear-cut mathematical formulation: it is based on a map I ' O ® R(O) that assigns to each region O from a class of regions I of Minkowski space-time, a von Neumann algebra R(O) of operators on a common Hilbert space H; all other axioms of AQFT can be understood as further specifications of this fundamental map.

Despite the prominent role AQFT plays today, even in the philosophical discussion of QFT (see e.g. Butterfield & Muller 1994, Butterfield 1995, Redhead 1995, Redei 1991 & 1996 & 1997), up to now no serious attempts have been made to investigate what AQFT has to contribute to ontological questions, i.e. of what kind(s) of fundamental entities the world probably consists of (e.g. particles, fields, space-time points/regions, processes, events, etc.) and what relations hold among the entities of the kind(s) in question. Such questions are clearly not satisfactory answered by the usual pragmatical/operational interpretation of AQFT, in which the local operators AÎR(O) are interpreted as physical operations, performable by measuring devices in space-time region O, on ensembles of “systems” described by states H (see e.g. Haag 1996, Araki 1999, Horuzhy 1990, Bogoliubov 1990).

My aim is to formulate an interpretation of AQFT in which discrete events, having a unique space-time location, are the fundamental entities and the world is the process of the realization of such elementary events. The realization of an event shall not depend on the presence or even existence of measuring devices or other macroscopic concepts, but be a free choice of nature, only restricted by the probabilistic potential that the already realized events provide for the realization of a further event. A somewhat similiar view about the ontology of the world was proposed by A. N. Whitehead (Whitehead 1929, see also Stapp 1977 & 1979).

The core of my proposal is as follows: the set of all events that are possible in the course of the process, can be represented in the formalism of AQFT by the set E of local operators A with the properties that the product of the adjoint operator A* with A itself is strictly contained in the interval between the zero- and the unit-operator (i.e. 0 <A*A< 1) and that this product is not proportional to the unit-operator (i.e. A*A¹l1, l a complex number). To each such operator AÎE a unique bounded space-time region OA can be assigned, if (1) one chooses the set C of bounded, contractible, causally complete regions as the domain I of the map O® R(O) and (2) one extends the standard-axioms of AQFT by the requirement, that for all pairs of such regions O1,O2ÎC, the algebra of their intersection coincides with the intersection of their algebras, i.e. R(O1ÇO2)=R(O1)ÇR(O2) (for a discussion of this requirement see Haag 1996, p. 144 f). The region OAÎC can then be interpreted as the (unique) location of the event A. Due to this unique location of each possible event AÎE, the set E can be equiped with an irreflexive relation “Д by defining A Ð B iff OA does not intersect OB, or the forward lightcone of OB.

With the help of this relation one can now define a possible world of realized events to be a sequence of events W=(A1, A2, …), such that i<j implies Ai Ð Aj and for which the operator WºÕi Ai is not the zero-operator. As a consequence of this definition, for every world W and every event A that is possible with respect to W (i.e. the sequence W¢ = (W, A) is itself a possible world) the value Pw(A)º<WW|A*A|WW>/<WW|WW> is well defined and lies in (0,1] (H is the unique vacuum vector of the theory). Thus it can be interpreted as the probabilistic potential for the realization of event A, given the world W of realized events. If now event A is in fact realized, the new world is given by W¢=(W, A) and its potential to generate further events is accordingly given by the map PW¢.

One can now show that events are individuated by the change they induce in the potential of all worlds W (i.e. PW ® P(W, A)), together with the potential PW*(A) for their realization in one arbitrary world W*. Thus altogether the entities represented by the operators AÎE are concrete (because of their unique location OA), they are particulars (since they can only occur once) and they are individuals, which from the viewpoint of ontology gives the rationale for calling them events.

Araki, H. (1999): Mathematical Theory of Quantum Fields. Oxford: Oxford University Press.

Boguliubov, N. (et al.) (1990): General Principles of Quantum Field Theory. Dordrecht: Kluwer.

Butterfield, J. (1995): Vacuum Correlations and Outcome Dependence in Algebraic Quantum

Field Theory. In: Greenberger, D., Zeilinger, A. (eds.): Fundamental problems in quantum theory. New York: New York Academy of Sciences.

Butterfield, J., Muller, F. A. (1994): Is Algebraic Lorentz-Covariant Quantum Field Theory Stochastic Einstein Local ? Philosophy of Science 61.

Haag, R. (1996): Local Quantum Physics: Fields, Particles, Algebras. Berlin: Springer.

Horuzhy, S. (1990): Introduction to algebraic quantum field theory. Dordrecht: Kluwer.

Redei, M. (1991): Bell’s Inequalities, Relativistic Quantum Field Theory and the Problem of Hidden Variables. Philosophy of Science 58.

Redei, M. (1996): Is there Superluminal Causation in Relativistic Quantum Field Theory ? In: Clifton, R. (ed.): Perspectives on Quantum Reality. Dordrecht: Kluwer.

Redei, M. (1997): Reichenbach’s Common Cause Principle and Quantum Field Theory. Foundations of Physics 27.

Redhead, M. (1995): More Ado about Nothing. Foundations of Physics 25.

Stapp, H. P. (1977): Theory of Reality. Foundations of Physics 7.

Stapp, H. P. (1979): Whiteheadian Approach to Quantum Theory and Generalized Bell’s Theorem. Foundations of Physics 9.

Whitehead, A. N. (1929): Process and Reality. New York: Macmillan.


WHAT COULD RESULT ALREADY IN 1900 FROM AN ANALYSIS
OF «INVASION» OF PLANCK’S CONSTANT INTO
CLASSICAL RADIATION THEORY:

V.I. Kogan

The centenary of the Plank’s constant discovery makes it worth to analyze the inherent predictive force of this discovery in statu nascendi (1900). This goal may be achieved by directly «fusing» the Classical Radiation Theory (CRT) and the Planck’s constant h, or in other words, analyzing the «invasion» of h into CRT. The respective logical scheme [1] (Chapter 1), whose main «input» part is a detailed block-structure of the CRT, includes some 20 cells interlinked with cause-and-effect bonds. Both this CRT part of the scheme [1] and the entire scheme involve two physical aspects, namely the EM field energy aspect and the trajectory Fourier-spectrum one.

The starting point of the above scheme is the «electrodynamical largeness of h », namely h>>e2 /c (e is electron charge, c, speed of light). This results in the inequality hw>>DE(reff(w)), where DE is the CRT-calculated value of the total energy emitted by an electron of such an impact parameter r which is responsible for the emission at frequency w. This inequality means the impossibility, in CRT, of forming an energy portion hw in the wave zone of an emitting electron by a classical (continuous) outflow of EM field. This inevitably requires a strong feedback (namely, energy transfer) between the field being emitted and the emitter (and relative suppression of the radiation emission channel as compared with respective radiationless channels) and a strong fluctuativity of the emission act. Such considerations could anticipate the ultimate physical contents of the First and Second Bohr’s postulates (1913) as well as the radioactivity-based analogy in the Einstein ‘s theory of spontaneous emission (1916).

Regarding the trajectory-spectral aspect, the in statu nascendi analysis could pertain to the relation between classical and real, quantum spectra of emitted radiation, in particular, for Bremsstrahlung radiation by a quasiclassically moving electron (Ze2/hv>>1, with this criterion obtainable in the frames of the same analysis) in the attractive Coulomb field. Here, the problem reduces to the degree of distortion, by the recoil hw, of the radiating part of the trajectory (this part tends to be more curved with growing w). The commonly accepted criterion, even up to now, of spectrum classicality is hw<<E, where E is the electron energy at infinity. However, this intuitive criterion ignores the electron’s acceleration which provides a sort of the (necessary) rough resonance between angular frequency of electron rotation and the frequency w of the field oscillator. The correct criterion of spectrum classicality appears to be hw<<Ekin(r0), where Ekin(r0) is the maximum kinetic energy at the turning point r0(w) of the electron’s «w-radiating» trajectory.

The judgment of quantum mechanics (i.e. after 1925-1926) concerning the two issues outlined above, is as follows. The «anti-classical» fluctuativity of the microscopic mechanism of radiation emission, in the limit of purely classical motion of the electron, is «washed out» in statistical averaging over the Poisson distribution for field oscillator excitations, to give the CRT result with disappearance of h (see, e.g., [2]), while the correct criterion of spectrum classicality agrees with that derived rigorously [1] (Chapter 3) from the respective (quasiclassical) expansion of the well-known Sommerfeld theory.

References

[1] Kogan V.I., Kukushkin A.B., Lisitsa V.S., Phys. Rep., 213 (1992) 1-116.

[2] Kogan V.I., Galitskii V.M., Problems in Quantum mechanics, Prentice Hall, 1963, p.182.


DEFLATIONARY METAPHYSICS AND THE HIDDEN VARIABLES DEBATE

Daniel McArthur

The debate within the philosophy of science over the best interpretation of quantum mechanics has been closely linked the question of scientific realism for most of this century. In this paper I re-examine the realism debate and its relation to quantum mechanics by approaching the realism question from the point of view of the recent “deflationary” turn that has characterised the debate in recent years.

The deflationary approach to the realism question urges that global solutions to the realism question that are supposed to apply to the whole corpus of science are simply not to be found, either realist or anti-realist. The correct interpretative stance must be decided on a case by case basis. I will review some recent formulations of the deflationary approach and show that the philosophy of science must indeed look to the individual sciences for the correct interpretative stance, however I will argue that this does not imply simply reading the stance from each individual research programme. I show that the a deflationary stance can still possess a normative dimension in that it can permit an adjudication of the best stance in a situation where interpretative debates exist within a research programme (as is the case with quantum mechanics). This adjudication proceeds by examining the relative successes of the methodological recommendations of the respective competing stances. I examine some of the interpretative problems that are purported to plague (non-relativistic) quantum theory in this light and demonstrate that they are artifacts of begging the realism question. Given the general deflationary stance I defend, then, the failure of realism to account for quantum mechanics need pose no difficulty for the philosopher unwilling to accept an anti-realist reading of the whole of science. I conclude by showing that the deflationary approach to the realism question eliminates any philosophical need for seeking alternatives to the Copenhagen interpretation.


IS THE 'LOGIC' OF CLASSICAL MECHANICS CLASSICAL?

Valentin Omelyantchik

Since J. von Neumann's pioneering book “Mathematical Foundations of Quantum Mechanics”, the difference between classical and quantum mechanics is seen as difference in their ‘logic’. It is said that the logic of classical mechanics is classical (or Boolean) whereas of quantum mechanics is not. In my article I am going to argue that this thesis taken at face value is false, because there is no such thing as ‘the logic of classical mechanics’.The distinction that undermines the last notion is the distinction between a classical system with a ‘simple’ (or ‘normal’) behaviour and a classical system (known as U-system) that demonstrates ‘complex’ or stochastic behaviour. The phase space of such a system is supplied not only with the symplectic structure conserved by classical dynamics, but also with a structure which naturally could be called ‘logic of instability’ (U-logic). Just U-logic it is claimed could be interpreted as quantum logic on the phase space of U-system.

Historically speaking there were two independent domains of research :

                                                                        (*)                                    (**)

CD ¬ -------------------- TMP ¬ ------------------------ QM

(**)--research interpreted quantum mechanics (QM) with the theory of Markov processes (TMP) trying to construct a solution of Schršdinger equation. Some of its representatives such as J.FŽnyes (1953) and E. Nelson (1966) explored an analogy between Schršdinger equation and the diffusion equation. Another such as V.Maslov (1978) developed a theory of complex Markov chains following an analogy with the idea of path integral. In its turn, (*)--research  established a connection between the theory of Markov processes (TMP) and the classical dynamics (CD) using ergodic theory (especially the works of D.Anosov, R.Bowen and Y.Sinaj in 70’s). So that it is natural to put a question about a direct interpretation of QM in CD which is determined by the ‘closure’ of indicated diagram. One possible answer is given by the conception of U-logic which could be seen as res media between the classical logic and the logic of quantum mechanics.

In my paper I’ll explain in some details 1) how the quantum logic can appear on the phase space of classical system and 2) how the structure of U-logic appears on the phase space of U-system according to ergodic theory. The first point will be clarified referring to the idea of the phase space representation of an approximate solution of the Schršdinger equation. Clarifying the second point I shall describe two natural interpretations of U-logic one of which, namely classical, is recognised by ergodic theory and another fits the structure of quantum logic. It means that according to the alternative interpretation  (as it will be shown) U-logic has the structure of orthomodular lattice.

I shall conclude with the clame that the existence of the two mentioned ‘looks’ on the phase space of the same classical system reduces ontological status of its ‘logic’ the status of ‘secondary property’.


100 AÑOS DE COMPLEMENTARIEDAD ENTRE LAS SINGULARIDADES CUÁNTICAS
Y RELATIVISTAS
(Discontinuidad, indeterminación, probabilidad
y distorsionabilidad en la microfísica de partículas).

Carlos Ortiz de Landázuri

La física cuántica y relativista a lo largo del siglo XX han descubierto paso a paso lasvirtualidades insospechadas que tiene la formulación de un principio de complementariedad recíproca. En este contexto se analiza el impacto que el principio de complementariedad ha tenido en los desarrollos posteriores de la microfísica de partículas en cuatro ámbitos muy definidos: 1) duplicidad del principio de discontinuidad/continuidad, corpúsculo/onda, respecto de las formas básicas de energía; 2) la articulación de las distintas formas de indeterminismo de tipo microfísico o macrocósmico, a través de diversos criterios de medida con pretensiones cósmico- universales, pero que también generan singularidades físicas enormemente paradójicas, como de hecho ocurrió con el propio principio de indeterminación o con la velocidad de la luz; 3) el recurso a diversas teorías de la probabilidad de tipo frecuencial o simplemente bayesiano, que dan razón de estas distintas singularidades físicas, sin por ello excluir ninguna de estas posibilidades; 4) la propia génesis de las nuevas tecnologías astrofísicas que dan lugar a enigmas aún mayores, como demostró la polémica entre Hawkings y Penrose, cuando se plantearon la posibilidad de una censura cósmica, o de un principio de distorsionalidad de los campos básicos de energía, sin que la polémica se pueda dar por cerrada. Es más, en todos estos casos los planteamientos cuánticos y relativistas han dado lugar a numerosas prolongaciones, sin que en ningún caso sus puntos de vista se puedan considerar excluyentes.

Bibliografía:

Morrison, Margaret: Unifyinh Scientific Theories. Physical Concepts and Mathematical Structures, Oxford University, Oxford, 1999.
AA. VV.; From Physics to Philosophy, Cambridge University, Cambridge, 1999.
AA.VV.; Modern Probability, Cambridge University, Cambridge, 1999.
Galison, Peter; Image and logic. A Material Culture of Microphysics, Chicago University, Chacago, 1996.
AA. VV.; De las estrellas enanas a los agujeros negros.
AA.VV.; Black Holle and relativistis Start, Chicago University, Chicago, 1998. AA.VV.; Geometric Universe, Oxford University, Oxford, 1998.


LAS RAÍCES POSTKANTIANAS DE LA TEORÍA CUÁNTICA
(A través de Penrose, Schrödinger, Reichenbach, Hugo Dingler, Schelling y Fries).

Carlos Ortiz de Landázuri

La génesis histórica de la teoría cuántica sigue rodeada de grades enigmas, como ya hizo notar T. S. Kuhn. Los desarrollos posteriores de la física cuántica dieron la espalda

a este tipo de problemas históricos, por opinar que era inútil cualquier posible diálogo con un pasado definitivamente superado. Sin embargo la teoría de torsiones de Penrose ha hecho cada vez más acuciantes este tipo de indagaciones acerca de la génesis histórica de la fisica cuántica y relativista, sin que ya sea posible dar la callada por respuesta. Es más, se ha comprobado como estos problemas ya se plantearon a lo largo de la polémica que mantuvieron Schrödinger y Reichenbach al respecto. En ambos casos se polemizó acerca de los presupuestos empiristas de la teoría cuántica y relativista, cuando de hecho ambas teorías se seguían remitiendo a marcos teóricos y presupuestos universalistas de tipo platónico, o al menos trascendental. Por ello se cuestionaron los orígenes de la teoría en el contexto intelectual de la República de Weimar, donde surgieron la mayoría de estas teorías. Igualmente se comprueba la reconstrucción llevada a cabo por varios autores para mostrar el lugar que la protofísica de la así llamada Escuela de Erlangen, a través específicamente de Hugo Dingler, desempeñó en el desarrollo posterior de estos planteamientos. Igualmente el papel que desempeño Schelling en la recuperación del interés por la ciencia natural, incluida naturalmente la microfísica de partículas. Finalmente, las aportaciones de tipo metodológico y conceptual que llevó a cabo Fries, en contra de los planteamientos aprioristas y dogmáticos de Hegel.

BIBLIOGRAFIA:

Kuhn, T. S.; Black-Body Theory and the Quantum Discontinuity, 1894-1912, 1982. Castellani, H. (ed); Interpreting Bodies. Classical and Quantum Objeas in Modern Physics, 1996.
Róthlein, B.; Schródinger Katze. Einführung in die Quantenphysik; 1996.
Morrison, M.; Uniffing Scientific Theories.2000.
Poser, H; Dirk, S. V. (Hrg.); Hans Reichenbach. Phi1osophie ¡m Umkreis der Physics. Garber, E.; The lenguage of Physics. The Calculus and the Development of Theoretical Physics, 1750-1914,1999.
Meyenn, K. von: Quantenmechanik und Weimarer Republik, 1994.
Janich, J.; Das Mass der Dinge. Protophysic vom Raum, Zeit und Materie. 1999. Bonsiepen,W.; Die Begründung einer Naturphilosophie M Kant, Schelling, Fries und Hegel. Mathematische versus spekulative Natur Phi1osophie. Vittorio Klostermann, Frankfurt, 1997.


QUANTUM SYSTEMS WITH POSITION DEPENDENT EFFECTIVE MASS AND SUPERSYMMETRIC FORMALISM

A. R. Plastino, A. Rigo, M. Casas, F. Garcias, and A. Plastino

The applications of supersymmetry ideas to non relativistic quantum mechanics developed during the last fifteen years has provided a deeper understanding of the analytically solvable Hamiltonians, as well as a set of powerful approximate schemes for dealing with problems admitting of no exact solution [1]. The concept of shape invariance has played a fundamental role in these developments since it allowed both for (i) a unified treatment of all the already known textbook cases of potentials admitting analytical solutions and (ii) a systematic procedure for generating novel exactly solvable systems [1-3].

In the present work we consider the application of the supersymmetric quantum mechanical formalism to the Schroedinger equation describing a particle characterized by a position dependent effective mass. The study of quantum systems with position dependent effective masses has been the subject of much activity in recent years [4]. The Schroedinger equation with nonconstant mass provides an interesting and useful model for the description of many physical systems. It has been applied to the study of nuclei, semiconductors, quantum liquids, 3He clusters, and metal clusters [5-7].

We show here that any one-dimensional quantum system with an effective mass m(x) admits of a supersymmetric partner system characterized by the same position dependence of the mass, but with a new potential function [8]. The form of this supersymmetric partner potential V2(x) depends on both the form of the original potential V1(x) and the form of the mass x-dependence. We also generalize the concept of shape invariance to the nonconstant mass scenario. As illustrative examples we provide, for a given form m(x) of the effective mass, shape invariant potentials exhibiting (a) harmonic oscillator-like spectra and (b) Morse-like spectra. In both cases the energy eigenvalues and eigenfunctions can be obtained in algebraic fashion.

[1] F. Cooper, A. Khare, and U. Sukhatme, Phys. Rep. 251, 267 (1995).

[2] R. Dutt, A. Khare, and U.P. Sukhatme, Am. J. Phys. 56, 163 (1988).

[3] P.K. Ghosh, A. Khare, and M. Sivakumar, Phys. Rev. A 58, 821 (1998).

[4] J.-M. Lévy-Leblond, Phys. Rev. A 52, 1845 (1995).

[5] M. Barranco, M. Pi, S.M. Gatica, E.S. Hernandez, and J. Navarro, Phys. Rev. B 56, 8997 (1997).

[6] A. Puente, Ll. Serra, and M. Casas, Z. Phys. D 31, 283 (1994).

[7] A. Puente and M. Casas, Computational Material Science 2, 441 (1994).

[8] A R. Plastino, A. Rigo, M. Casas, F. Garcias, and A. Plastino, Phys. Rev. A 60, 4318 (1999).


VARIABLES OCULTAS Y FÍSICA CUÁNTICA

Ramón Risco

La cuestión de las variables ocultas en Física Cuántica es tan antigua como la teoría en sí. Durante décadas este tema ha sido objeto de importantes discusiones entre físicos y filósofos, siendo la más conocida de todas ellas la entablada entre Albert Einstein y Niels Bohr.
Hoy día, a la luz de las importantes aplicaciones de los estados enredados ("entangled") en el ámbito de la computación y las telecomunicaciones, el problema de las variables ocultas ha tomado un nuevo cariz. Ya ha dejado de ser una cuestión de interés meramente teórico, para ser objeto de especulaciones de carácter tecnológico (teletransporte, criptografía cuántica, computación cuántica, codificación densa, etc.).
Esta ponencia está divida en dos partes. En la primera de ellas se hace una puesta a punto del tema, esperando que sea útil para físicos y filósofos, tanto si están comenzando a introducirse en esta problemática como si trabajan activamente sobre la misma. Se repasará brevemente la historia de las variables ocultas, haciendo especial énfasis en la importancia de la localidad, la contextualidad, los teoremas de Bell y Kochen-Specher y las desigualdades que se han contrastado experimentalmente. Se subraya la existencia de modelos explícitos de variables ocultas.
En la segunda parte de la exposición de describe la investigación del ponente desde 1992. Básicamente se analizan modelos de variables ocultas que reproducen los modernos resultados experimentales realizados con parejas de fotones. Se indica la necesidad de la llamada hipótesis de "no-enhancement" y el papel jugado por la eficiencia de los detectores en la contrastación experimental de las desigualdades de Bell. Finalmente se analizan experimentos como el "Borrador Cuántico", la "Cancelación de la Dispersión" o el "Teletransporte Cuántico" desde la perspectiva de las teorías de variables ocultas. Esta investigación ha sido publicada en las siguientes referencias.

Referencias:

R. Risco Delgado y F. Selleri: "Variable Detection Probability in Two-Photon Interference", Found. Phys. Lett. 6, 225 (1993).
R. Risco Delgado: The Variable Detection Approach: "A Wave-Particle Model", Found. Phys. Lett. 6, 399 (1993).
R. Risco Delgado: "A Local Realistic Analisys of the Polarization Correlation of Radiation from a Two-Photon Deuterium Source", Hadronic Journal 8, 301 (1993).
R. Risco Delgado, "Localidad y no localidad bajo recientes resultados teóricos y experimentales", Tesis Doctoral, Universidad de Sevilla, 1997.
A. Casado, A. Fernández Rueda, T. W. Marshall, R. Risco Delgado y E. Santos, "Fourth-order interference in the Wigner representation for parametric down-conversion experiments", Phys. Rev. A vol. 55, pp. 3879-3890 (1997).
A. Casado, A. Fernández Rueda, T. W. Marshall, R. Risco Delgado y E. Santos, "Dispersion cancellation and quantum eraser experiments analyzed in the Wigner function formalism", Phys. Rev. A vol. 56, 3, 2477-2480 (1997).
E. Santos, A. Casado, A. Fernández Rueda, J. Martínez y R. Risco Delgado, "Wigner function description of entangled photon pairs produced in nonlinear crystals", en A. Ballesteros, F. J. Herranz, J. Negro, L. M. Nieto y C. M. Peña (eds.), "Proceedings of the First International Workshop Symmetries in Quantum Mechanics and Quantum Optics", Universidad de Burgos, 1999, pp. 353-368.
A. Casado, A. Fernández Rueda, T. W. Marshall, R. Risco Delgado y E. Santos, "Dependence on crystal parameters of the correlation time between signal and idler beams in parametric down conversion calculated in the Wigner representation", aceptado en European Physical Journal D, 2000. 


LA CONTINGENCIA DE LA INTERPRETACIÓN TEÓRICA
Y LA FÍSICA CUÁNTICA.

José Ruiz Fernández

En toda teoría física podemos considerar dos tipos de elementos. En primer lugar aquellos cuya referencia y contrastación empírica están bien establecidas y no son problemáticas. En segundo lugar los que no cumplen esta condición.

Las interpretaciones globales que se hacen de la teoría y que cumplen un cometido heurístico y sistemático se encuentran dentro del segundo grupo.

En el marco de la física cuántica se puede ejemplificar claramente la contingencia de este tipo de interpretaciones que no se deducen necesariamente del aparato descriptivo que puede ser contrastado.

Al comparar la interpretación indeterminista clásica de Copenhague con la interpretación determinista propuesta por David Bohm, vemos como podemos mantener una total equivalencia en la adecuación predictiva y descriptiva de las leyes de la teoría y sin embargo oscilar entre interpretaciones teóricas y ontológicas radicalmente distintas. Podemos al   menos sacar dos consecuencias de esto. Por un lado la contingencia de la aceptación general de la interpretación de Copenhague. Por otro, más general, la incompetencia de la ciencia como instancia decisiva en lo referente a las cuestiones ontológicas generales.


ACERCA DE LA COMPATIBILIDAD DE LA MECÁNICA CUÁNTICA CON LA EXISTENCIA DE INDIVIDUOS

Francisco José Soler Gil

El mundo de nuestras experiencias ordinarias es un mundo de entidades individuales. Esta afirmación trivial, se vuelve empero problemática si consideramos que la mecánica cuántica proporciona el marco adecuado y completo para la descripción del mundo físico.
Ahora bien, para entablar una discusión acerca de la compatibilidad de la mecánica cuántica con la existencia de individuos, es preciso en primer lugar definir el concepto de individuo. Tres concepciones importantes de la individualidad pueden ser representadas por las siguientes definiciones:

  1. Un individuo es una entidad (más o menos) impenetrable que sigue una trayectoria espacio-temporal continua.
  2. Un individuo es una entidad que puede ser caracterizada unívocamente mediante un conjunto de propiedades.
  3. Un individuo es una determinada entidad indivisible (absolutamente o en el sentido de ser una totalidad) que puede existir durante algún tiempo sin presuponer la existencia de otras entidades (salvo las propias partes, estructuras etc.).

Podemos asociar (grosso modo) la primera definición con Strawson, la segunda con Leibniz y la tercera con Aristóteles.
Dadas pues estas posibles definiciones de la individualidad, nos encontramos con tres aspectos del formalismo de la mecánica cuántica que, cuando menos, parece que dificultan la aplicación de estas definiciones en el ámbito de aplicación de la teoría. Estos aspectos son:

  1. Las relaciones de indeterminación posición-momento, que hacen inaplicable el concepto clásico de trayectoria en el marco de la mecánica cuántica.
  2. La simetría de las funciones de onda de los sistemas de partículas idénticas, que trae consigo la duda de si es preciso admitir la posibilidad de la existencia de individuos absolutamente idénticos o bien rechazar la individualidad de las partículas (al menos en esos sistemas).
  3. La imposibilidad (en general) de separar las funciones de onda de los sistemas en productos de funciones de onda de sus partes, que parece impedir tanto la relativa independencia de dichas partes como el que estas sean algo determinado (ya que no se les puede atribuir estados puros).

Hasta qué punto impiden estos aspectos del formalismo cuántico la aplicación de las diferentes definiciones del concepto de individuo es objeto de análisis. En cuanto a la primera definición, se propone su inaplicabilidad al menos en el ámbito microscópico, salvo que se acepte una teoría de variables ocultas del tipo de la teoría de Bohm. En cuanto a la segunda, se mantiene que la mecánica cuántica (al menos en su estado actual, y salvo que se acepte una teoría de variables ocultas) no nos ofrece suficientes argumentos ni para aceptarla ni para rechazarla. En cuanto a la tercera definición, se mantiene que es compatible con el formalismo cuántico.
Se concluye por tanto que es posible hablar de individuos en al marco de la mecánica cuántica.


WERNER HEISENBERG Y LA TESIS DEL FINAL
– DEL - CAMINO EN LA FISICA

Ana Elisa Spielberg

Los motivos por los cuales se puede sospechar de una real desfiguración del pensamiento de Werner Heisenberg son varios: la disparidad lingüística con la cual se nombra a su cálculo central - relaciones de incertidumbre, principio de indeterminabilidad o de indeterminación; la amarga observación de Max Born “Hoy presta su nombre por doquier a la línea de pensamiento que yo creé” refiriéndose de pasada a la “Escuela de Copenhague”; y, por último, las insistentes rectificaciones del propio Heisenberg alertando no sólo sobre malos entendidos sino también verdaderas “verzerrungen”. En este trabajo mostraremos que la famosa disyuntiva que refleja la disputa alrededor de la interpretación del formalismo de la teoría de los quanta – teoría aún incompleta o fin del camino en física – no tiene asidero en la propuesta epistemológica del propio Heisenberg. Partiendo de algunos de los pasajes del Prefacio de 1982 del libro de Karl Popper: Teoría cuántica y el cisma en Física, donde éste le atribuye haber sostenido la “tesis del - final – del - camino en física”, y a la vez haber contribuido a superarla (porque sus “concepciones cambiaron mucho”) examinamos el uso que hace Heisenberg con las nociones “endgültig”, “AbschluB”, “Vollendung” y “Ende” de la Física, y las que Popper traduce de una forma tan peculiar.

Colocada la continuidad allí donde otros colocan la ruptura: “(…) no se ven razones - dirá Heisenberg - para sospechar, a raíz de la teoría de los quanta, de alguna ruptura en la continuidad de las ciencias exactas y naturales”, ya que su aparición no implicará pérdida alguna de la física clásica, ubicará a la ruptura [Bruch] en un lugar donde debe ser “tarea de la filosofía resignarse a aceptar estos hechos nuevos”.

¿Qué problema grave queda al descubierto para que Heisenberg aluda a esta especie de “entrega voluntaria acompañada de un sufrimiento en la adversidad”? ¿Cuál es la adversidad con la que deberá lidiar la filosofía? Y, por último ¿Por qué – en este caso- se trataría de un sufrimiento y no de un gozo?

Su concepción del conocimiento y de la realidad que expresa en escritos tales como “Das physikalische Weltbild”, “Über das Weltbild der Naturwissenschaft” y sobre todo en su ensayo editado recién en 1984 bajo el título: Ordnung der Wirklichkeit, nos permitirá descubrir por qué razón la quiebra del principio de continuidad de Leibniz, por el cual ya no se podrá exigir homogeneidad del ser y acontecer en todas las regiones de la realidad, no produce una revolución en la física, y sí una conmoción en la que consiste, precisamente, el escándalo y la “dolorosa resignación”.


WERNER HEISENBERG: CAUSALIDAD Y AZAR
Ana Elisa Spielberg 

Los escritos de Werner Heisenberg, conocidos bajo el nombre de Allgemeinverständliche Schriften ilustran aquél quehacer del científico que Jean Piaget describiera como propio del epistemólogo contemporáneo, a saber, reflexionar acerca de los fundamentos de su saber. En este trabajo exploramos un tema – leitmotiv de la epistemología de mediados del siglo XX – y originado a raíz de las nuevas situaciones epistémicas presentes en la teoría de los quanta, como es la validez de la ley causal y el azar. ¿Hasta qué punto se adecuan a los lineamientos del pensamiento heisenbergiano expresiones tales como “(…) a algunos fenómenos se los priva del carácter causal que antes se les había atribuido, mientras que a otros se los reconoce como poseedores de un aspecto causal”, o la idea de “(…) un Azar con mayúscula, como una entidad metafísica”? Es cierto que en la obra de Werner Heisenberg no se encuentra una teoría sobre el azar, pero sí suficientes ideas positivas, para comprender no sólo esta noción relativa y negativa sino también esclarecer una palabra “camaleón” en su uso cotidiano y, polisémica en su uso teórico-filosófico. En cuanto a la noción de causalidad, luego de examinar cómo encara la cuestión del Kausalbegriff en Kant, responderemos a la pregunta por qué después de Kant, elige al Timeo de Platón, con lo cual se trasluce el tipo de vínculo entre la física y la filosofía que él encarna.


COMPLEMENTARITY BETWEEN MACRO
AND MICRO WORLDS

  Kayoko Awaya

What is the legacy of the past 100 years of quantum theory? I think that one of the most important ideas is the complementarity between the macroscopic and microscopic worlds although we have not yet necessarily reached the final solution of the measurement problem in quantum mechanics1). I will discuss this idea concretely through a slight reformulation of the laws of quantum mechanics, and also show the deeper philosophical meaning of this concept for our scientific knowledge.

 In classical physics, we can describe the behavior of objects disregarding the measurement. This is assured by the microscopic measurement media, such as photons, which are transferred from the object to the measuring apparatus, and effects of these on the object are generally negligible. In this way we have been able to establish a classical objectivity or naïve reality for the macro world premised on the existence of the micro world, of which we are usually not aware. In quantum physics in general, we can no longer measure the object without disturbance. The existence of this disturbance and its probabilistic character are so intrinsic that we have to use the state function Y to describe the behavior of the quantum object. The meaning of Y is given as what supplies the probability of finding a value if we measure the object. But the measurement itself is done in our macro world, and in this sense the description of the micro world is premised in its tern on the macro world. Thus we are led to the complementarity2) between the macro and micro worlds.

 This introduction of the state function Y with its superposition principle is so completely unfamiliar to us that many physicists tend to discard the reality or objectivity of the micro world itself and often even of the macro world. However, we can recover it by proving the unfoundedness of the assumption that an observable in general can not have a well-defined value between measurements3) and at the same time accepting the impossibility of establishing a unique description for that (hidden) value. This impossibility, which corresponds to the uncertainty principle in terms of the standard deviation of the measurement values, is deeply bound up with the complementarity between the macro and micro worlds, which characterizes the position from where we measure the outside world. Therefore this complementarity also shows the limitation of our knowledge in principle, and this has implications for the whole of our attitude toward to nature and science.

1)K.Awaya, Physics Essays, to be published

2)K.Awaya, Physics Essays 5 (1992) 142

3)L.Accardi,“URNE E CAMALEONTI”Mirano: il Saggiatore (1997)


INDISCERNIBILITY AS A BASIC PROPERTY OF QUANTUM OBJECTS

Frank Linhard

The objects of the "quantum domain" and the objects of classical physics are distinct in their behaviour and interaction on certain basic properties which are characteristic for their specific realm. One of these properties is the indiscernibility of elementary particles. Since the dawn of western science in presocratic Greece, the indiscernibility of atoms is prevailing as some kind of necessary realisation of a lex parsimoniae. The aim of this paper is to take into account not only the physical consequences of the indiscernibility of elementary particles as formulated in the Fermi-Dirac statistics, but also the philosophical implications of an approach which tries to understand indiscernible entities as basic components of a material world. A philosophical and metaphysical analysis and discussion of physical indiscernibility can be found in the controversy between Leibniz and Clarke, which took place in the early 18. century. This metaphysically induced discussion leads, in several aspects, straight to the point and it will be shown in which ways it does. Furthermore this paper examines the plausibility of Hermann Weyl’s proposal to call the Pauli-principle: "Leibniz-Pauli-principle" and debates the reaction of Wolfgang Pauli on that. Therefore it is necessary to take a look at Paul Dirac’s many-electron approach which he proposed in 1926 and which brought his name into the context of the statistics of fermions in the physical literature.

Leibniz formulated his principium identitatis indiscernibilium on methodological grounds, yet connected with metaphysical reasoning. In the controversy with Clarke he uses this principle to show, that ontological objects having the property of indiscernibility cannot exist in reality. This is deduced from logic itself.

The paper proposes an interpretation of Leibniz, using abstracta and realia as concepts, and relates this interpretation to Erwin Schrödinger’s analysis of the statistics in quantum mechanics in his 1950 "Was ist ein Elementarteilchen?".

Thus the topic of indiscernibility, which is studied in this paper, is not only examined under physical and historical aspects but under philosophical and conceptual aspects as well. From this point of view an answer to Schrödinger’s question "What is an elementary particle?’ can be discussed.


MODEL OF QUANTUM PARTICLE INSTEAD OF "INTERPRETATIONS" OF QUANTUM MECHANICS
(PDF full text)

A. I. Lipkine

The main purpose of this report is to attract physicists’ community to a special model view on physics which allows to illuminate obscure questions of quantum mechanics. There is a new ensemble of known things (in some sense similar to the D. Hilbert’s work on the foundations of geometry). This view is based on my concepts of ‘primary ideal objects’ (PIO), on which ontological physical models are based, and ‘nucleus of a branch of physics’ (NBP), which defines the PIO (PIO and NBP play in physics roles similar to the ones of points, lines and system of axioms in geometry) [1]. The NBP has theoretical and empirical parts. The main elements of the former are physical system (consisted of PIO) and its states. Physical motion is described as a transition in time from one state to another. There are two phases in development of science: the creation of new PIO (NBP), and the using of existing PIO for making theoretical models of different phenomena. My interest is concerned in the first one. Instead of "interpretations" of quantum mechanics this approach introduces the ontology model of quantum particle – the main PIO of quantum mechanics. It is made by setting in a certain order the postulates of Schroedinger, Born, Bohr, by separation of procedures of preparing and measuring of states of physical system from the theoretical part, by a redefinition of the state of quantum system based strictly on Bohrn’s postulates.

The next postulates constitute the NBP and the quantum particle (any ‘microparticle’ is its variation):

1) Schroedinger’s postulates introduce wave functions, which I consider as mathematical representatives of the states of quantum system, and the Schroedinger’s equation of motion, and the principle of superposition; 2) N. Bohr’s postulate defines the procedure of quantization of the "starting classical system" and establishes a correspondence between the main mathematical representative of the system in Math-stratum - Hamiltonian (or Lagrangian in quantum theory of field) and its physical model; 3) Born’s rules of probability interpretation of wave function establish a correspondence between the mathematical representatives in the Math-stratum of a system ‘s physical state and the procedures of measurement. These are the rules that bring probability in quantum mechanics – the state of the system is expressed in the language of distributions of probabilities of values of measurable quantities (observables) in quantum mechanics, not of values themselves. There is a significant change in the measure procedures in comparison with classical mechanics. In quantum mechanics in general case one needs a sufficiently large series of measurements to get the distributions of probabilities of values, which describe the state of a system in quantum mechanics.

There is no "reduction of wave function", EPR-paradox, effect of ‘teleportation’, and so on because according to Born’s postulates one act of measurement doesn’t define the state. The quantum-mechanical description is complete and there are no "paradoxes" [2].

1. Lipkine A.I. "Models of modern physics (the view from inside and outside)" [in Russian], Moscow, 1999; Lipkin A.I.. Phystech Journal.1, No 3, p. 85 (1994).

2.Klyshko D.N., Lipkine A.I. " About the "reduction of wave function", quantum theory of measurement, and ‘ incomprehension’ of quantum mechanics. // Electronic Scientific Journal "Investigated in Russia" < http://zhurnal.ape.relarn.ru > (p. 703-735 (2000)).


QUANTUM MECHANICS AND FREE WILL: COUNTER-ARGUMENTS

Martín López Corredoira

Since quantum mechanics (QM) was formulated, many voices have claimed this to be the basis of free will in the human beings. Basically, they argue that free will is possible because there is an ontological indeterminism in the natural laws, and that the mind is responsible for the wave function collapse of matter which leads to a choice among the different possibilities for the body. However, I defend the opposite thesis, that free will cannot be defended in terms of QM. First, because indeterminism does not imply free will, it is merely a necessary condition but not enough to defend it. Second, because all considerations about an autonomous mind sending orders to the body is against our scientific knowledge about human beings; particularly, neurological or the evolutionary theory cannot admit dualism. Quantum theory of measurement can be interpreted without the intervention of human minds, but other fields of science cannot contemplate the mentalist scenario, so it is concluded that QM has nothing to say about the mind or free will, and its scientific explanation is more related to biology than to physics. A fatalistic or materialist view, which denies the posibility of a free will, makes much more sense in scientific terms.


MAX PLANCK Y LA CAUSALIDAD

Ricardo Parellada

En esta comunicación se ofrece una exposición y un comentario crítico de las ideas de Planck sobre la causalidad y el determinismo contenidas en sus escritos de epistemología, en particular en la conferencia titulada “La causalidad en la naturaleza”. Planck parte de dos enunciados fundamentales, pero aparentemente incompatibles, acerca de la causalidad en el mundo físico: (i) un suceso físico está determinado causalmente cuando se puede predecir con seguridad, y (ii) no es posible en ningún caso predecir un suceso físico con total seguridad. Cuando se intenta resolver el desacuerdo entre estas dos afirmaciones dando prioridad a la primera se adopta, a decir de Planck, una postura determinista, mientras que al dar prioridad a la segunda se adopta una postura indeterminista.

Planck aborda en primer lugar la exposición y la contraposición de estas dos posturas desde el punto de vista de la física clásica, y toma partido por la posición determinista a partir de una distinción entre mundo sensible e imagen física del mundo. Un suceso físico se puede contemplar desde ambas perspectivas: en el primer caso se trata de un suceso individual impreciso, que contiene elementos azarosos e inesenciales, mientras que en el segundo se trata de una construcción mental en cierta medida arbitraria, de una idealización elaborada para evitar la imprecisión propia de las medidas individuales e introducir determinaciones conceptuales precisas. Desde una postura determinista, la imprecisión de determinadas medidas físicas concierne únicamente a la intertraducción entre los fenómenos sensibles y los teóricos, pero el tratamiento de estos últimos, a los cuales se refiere en realidad el concepto de causalidad física, es perfectamente legaliforme.

Planck utiliza esta misma distinción entre mundo sensible e imagen física del mundo en sus reflexiones sobre la mecánica cuántica, y considera conveniente introducir también en ella las nociones de causalidad y determinación. Para ello establece una cierta comparación entre la indeterminación cuántica de las variables incompatibles y las imprecisiones clásicas en la traducción de lo sensible y lo teórico y afirma que, a pesar de las diferencias fundamentales entre las leyes de la mecánica ondulatoria y de la mecánica de los puntos materiales, lo esencial es que “la magnitud característica de las ondas de materia, la función de onda, está completamente determinada por las condiciones iniciales y contextuales para todo lugar y tiempo, según reglas perfectamente establecidas, ya se utilicen para ello los operadores de Schrödinger, las matrices de Heisenberg o los números q de Dirac”. De ahí concluye que, aunque en la mecánica cuántica la función de onda no representa directamente a un suceso físico, sino que permite calcular su probabilidad, su sometimiento a operadores y matrices colleva un determinismo análogo al de la física clásica.

En esta comunicación se trata de exponer estos argumentos de Planck acerca de la causalidad y el determinismo en la mecánica cuántica y contraponerlos someramente a la interpretación ortodoxa. Se mencionan también las ideas de Planck acerca de una noción de causalidad física no restringida a la imagen física del mundo, sino propia del mundo sensible, y la forma como la refiere a la subjetividad.


MATHEMATICAL FORMALISM IN EARLY QUANTUM MECHANICS

Klaus-Heinrich Peters

The suggested talk gives a historical analysis of the different viewpoints of mathematicians and physicists on the nature of physical theory in early quantum mechanics. While the connection between theory and experiment has been investigated throughout the history of physics, the problem of the role of mathematical formalism in physical theory received little consideration. The invention of transformation theory by P. Dirac on one side and the alternative development of the spectral theory of operators in Hilbert-space by J. von Neumann on the other, give a perfect historical representation of the underlying philosophical problems.
Quantum mechanics made its breakthrough as a universal theory of all physical processes with the mathematically ill-defined transformation theory. Despite the fact that the central mathematical object in the theory, Dirac's d-function had obvious self-contradictory features, the transformation theory became the accepted framework for the description of quantum phenomena. The arguments of the involved mathematicians, in particular von Neumann were more or less ignored, and his spectral theory, which he invented as a mathematically correct but difficult-to-handle alternative to Dirac's theory, impressed nobody in the physicist community. Even the mathematically consistent foundation of the class of d-like functions more than 20 years later in the ``theory of distributions'' by Laurent Schwartz was not assigned any importance.
The fact that physicists ignored mathematical rigor in a period when physics lost its ``Anschaulichkeit'' and reduced itself to a mathematical scheme without describing ``objects'' in the usual sense seems quite astonishing and promises deep insights into what physics is actually doing or aiming at. To this end the viewpoints of the main characters of that period (Dirac, von Neumann, Heisenberg, Pauli, Bohr) will be worked out and presented during the talk.
Roughly speaking, von Neumann sees mathematical formalism as a representation of the relations between physical quantities, the mathematical quantities fulfilling the same relations than the physical ones. This point of view seems natural for a mathematician, postulating some kind of isomorphism between the physical and mathematical objects.
Hilbert, von Neumann and Nordheim (1927) call this method ``axiomatization'', drawing an analogy with linear algebra. If mathematics is a map of the physical world, a non-consistent and in every step well-defined mathematical formalism can't be a correct description or explanation of a physical phenomenon and cannot be considered a physical theory at all.
As in the whole discussion, the physicists, in contrast to the mathematicians, didn't comment on that problem explicitly. But their point of view becomes clear from the way they actually handled the problem. Dirac's attitude can be sketched in the following way: His main argument for the use of his d-function is the simplicity and elegance of the formalism, which clarifies the involved physical argument. Mathematics is thus a tool for showing what has to be understood in a different (i.e. the „physical") domain.
Following the historical argument, we will hopefully receive an opportunity to wonder once again at the question: Why, and in what way, is physics mathematical?


RHITHMOS, DIATHIGUE, TROPE: EL ÁTOMO CLÁSICO EN GEOMETRÍA Y FISICA

Alejandro Rivero

Un manuscrito perdido de Arquímedes, recientemente redescubierto1, contiene un dato secundario al que los historiadores anteriores al siglo XX no han tenido acceso: la atribución a Demócrito de una solución "no rigurosa" al problema del volumen del cono. A la luz de esta conexión con la geometría conviene una revisión de las tres propiedades de los indivisibles (physics/0006065). En esta charla queremos plantear si Demócrito pudiera haber alcanzado estas propiedades a través del estudio de la integración de volúmenes, tal como narra la anécdota plutarquiana (math.H0/990402 l).
La traducción aristotélica, interesada sólo en la materia y no en sus propiedades matemáticas, hace esta teoría vulnerable a falsos ataques. En particular, el traído y llevado tamaño -derivado de la propiedad traducida como "figura" - no es una propiedad del átomo. Justo lo contrario: el átomo es indivisible porque no tiene una magnitud que se pueda dividir. La longitud es una propiedad del vacío, no de la materia.
El atomismo no se enterró bien. Lo reencontramos en Copérnico -compara su sistema solar con un cuerpo compuesto de átomos-, o en problemas teológicos alrededor de la transustanciación . En el XVII está en el fondo de inspiración de los geómetras, llevando a anomalías tan divertidas como que el teorema fundamental del calculo sea -¡correctamente!- atribuido a alguien que había dejado de publicar cuando Newton y Leibnitz hicieron sus hallazgos. La pervivencia de los atomistas la encontramos en anécdotas (physics/0001033) como que el geómetra Barrow tenga al menos tres copias de Lucrecio en su biblioteca cuando Newton la cataloga o que Cavalieri apueste por "átorno" como denominación de sus objetos infinitesimales. Pero el camino real que supuso el concepto de límite dejó al atomismo en la cuneta de la mecánica estadística.
Corresponde a Plank provocar su resurrección en el marco original. Hoy en física, la indeterminación en espacio de fase lleva a plantearse otras en espacio-tiempo, la ecuación de Dirac-Kähler formula las partículas de Dirac como campos de formas diferenciales, la teoría de campos cuánticos fuerza a sustituir la noción de límite por la de grupo de renormalización (quant-ph/9803035, dg-ga/9710026). En matemáticas, la teoría de homologías y cohomologías -y la geometría de Connes- enseña como hacer geometría sin depender del análisis newtoniano. La constante de Plank actúa en el punto angular de la dualidad, justo entre el espacio tangente y el cotangente. Concluimos afirmando que la historia de la física teórica de este siglo, y puede que de la mitad del siguiente, es todavía la batalla por entender la necesidad de esta constante y sus consecuencias.

________________
1 Codex C, ed. JL, Heiberg, transcrito en 1909. En palabras del editor, consiste de "scriptura antiqua aqua tantum diluta perumque oculis intentis discipi potest". Fue vendido o robado en la I guerra mundial; apareció hace dos años y aún está en revisión y restauración.


INFORMACIÓN, INCERTIDUMBRE Y COMPLEMENTARIEDAD.

Jorge Sánchez Ruiz

Cualitativamente, el principio de incertidumbre de Heisenberg establece la imposibilidad de preparar un sistema cuántico en un estado en el que los valores de dos observables incompatibles estén simultáneamente determinados con precisión arbitraria. La formulación matemática usual de este principio es la llamada desigualdad de Heisenberg, DADB ³ ½|<[A,B]>|, que pone una cota inferior al producto de las desviaciones estándar de los observables A y B cuando éstos no conmutan ([A,B] ¹0). Sin embargo, en años recientes se ha puesto de manifiesto por parte de diversos autores que esta desigualdad no es capaz en general de expresar cuantitativamente de manera satisfactoria el contenido físico del principio de incertidumbre. Entre las diversas alternativas propuestas, resultan especialmente interesantes las llamadas relaciones de incertidumbre entrópicas, que son cotas inferiores a la suma de las entropías de información de Shannon correspondientes a las distribuciones de probabilidad para los posibles resultados de las medidas de A y B. Puede demostrarse que desigualdades no triviales de este tipo existen para cualquier par de observables sin estados propios comunes, y resultan siempre una expresión cuantitativa satisfactoria del principio de incertidumbre al poner una cota superior a la información (en el sentido riguroso que le da a esta palabra la teoría de Shannon) que podemos tener a la vez sobre los observables A y B.
El objetivo de esta charla es presentar algunos resultados obtenidos por el autor en años recientes sobre la formulación entrópica del principio de incertidumbre, en particular los relativos a su extensión a conjuntos de más de dos observables que no conmutan dos a dos. Como ilustra el ejemplo de los N+1 observables complementarios (según la definición de Schwinger) existentes en espacios de Hilbert de dimensión N, para dichos conjuntos pueden existir relaciones de incertidumbre más fuertes que las que se obtienen a partir de las que satisfacen las parejas incluidas en el conjunto. Además, para clases particulares de estados como por ejemplo los estados puros pueden existir también desigualdades no triviales de signo opuesto que pueden considerarse como "relaciones de certidumbre".
En su versión cualitativa, el principio de incertidumbre fue descubierto por Heisenberg para el caso del par posición-momento, considerando una serie de experimentos gedanken entre los que figura el de la difracción de un haz de partículas por una rendija. Es un hecho remarcable que éste es precisamente uno de los casos en los que la desigualdad de Heisenberg no resulta satisfactoria como expresión matemática del principio de incertidumbre para la posición y el momento, a diferencia de la relación de incertidumbre entrópica. Lo mismo ocurre para la difracción por una rendija doble (experimento de Young), donde por otra parte se encuentra que la relación de incertidumbre entrópica no es lo suficientemente fuerte como para implicar la dualidad onda-partícula, lo que viene a apoyar la consideración de ésta como una manifestación independiente del principio de complementariedad más que como una consecuencia del principio de incertidumbre.


SOBRE LA INTERPRETACIÓN REALISTA MÍNIMA DE LA MECÁNICA CUÁNTICA

Emilio Santos

Como en toda teoría física, en la mecánica cuántica hay que distinguir entre el formalismo (por ejemplo, las ecuaciones) y las reglas semánticas (conexión de elementos de la teoría con los hechos de observación o experimentación). Es necesario admitir que el formalismo de la teoría cuántica está extraordinariamente bien confirmado, pero existe una amplia variedad de reglas semánticas compatibles con los experimentos. En la mayor parte de las situaciones es suficiente establecer la relación de la teoría con los hechos observados a nivel macroscópico. Así sucede, por ejemplo, con las predicciones relativas a propiedades de sólidos (densidad, calor específico, conductividad eléctrica, etc.). Basta aplicar la teoría cuántica (ecuación de Schrödinger o de Dirac) a un conjunto macroscópico de núcleos y electrones. Analizaremos si eso es válido para todas las situaciones o en algunas se requieren hipótesis típicamente cuánticas, como el colapso de la función de ondas. Para ello estudiaremos algunos experimentos típicos, como los de interferencia de átomos y moléculas, para ver si es posible interpretarlos con la hipótesis realista, que consideramos mínima, de que los valores de las magnitudes de los cuerpos macroscópicos tienen siempre una realidad objetiva. Si la predicción cuántica es una distribución de probabilidad, esa probabilidad ha de interpretarse en el sentido de ignorancia. Analizaremos si las predicciones cuánticas con esta interpretación implican no localidad, como parece deducirse del teorema de Bell.


THE CAUSAL INTERPRETATION OF QUANTUM MECHANICS:
TRANSVERSAL TIME IN A DOUBLE POTENTIAL WELL

Regien G. Stomphorst

Tunneling is the quantum mechanical phenomenon that a particle can cross a barrier with potential V, even if its energy is strictly less than V. In a decay type of tunneling the particle is initially in a bound state, surrounded by a barrier, and subsequently leaks out of this confinement.

It seems natural to ask how long it takes on average for particles to cross the barrier, the so-called ‘transversal time’. One would expect that the quantum theory provides a transversal time operator, whose expectation value for a given wave packet can be compared with experiment. However, time enters quantum mechanics as a parameter, not as an operator. So the question about transversal times is not an easy one.

In the causal interpretation of quantum mechanics, the motion of an electron is causally determined by an objectively real complex valued field so that it has a well-defined position and velocity at each instant of time. Integration of the velocity subject to initial conditions yields the particle trajectories [1].

This stands in contrast to the usual interpretation that the wave function determines the probability of finding a particle if a suitable measurement is carried out. The causal theory does not assign a special role for the observations. Nevertheless, the standard quantum theory and the causal interpretation of quantum mechanics are empirically equivalent.

The big difference between the theories lies in the interpretation. This interpretation difference refers to what the theory tells us about the underlying structure of quantum phenomena [2].

Because the causal interpretation provides clear-cut particle trajectories in all situations, this interpretation has a conceptual advantage when applied to the problem of tunneling times.

Therefore, in principle, this approach provides a well-defined answer to the question how long each particle spends inside the barrier.

In certain chemical reactions, an electron, in an excited state moves from one molecule (or molecular group) to another. Such an electron transfer occurs even at very low temperatures and it is generally believed that this is due to a tunneling process [3]. Such processes are often modelled by means of a double potential well.

We apply the causal program to this ‘double potential well’ model. Investigating the possible trajectories in the ‘double potential well’ model gives us a straightforward way to determine the total time (often referred to as dwell time), which a particle spends inside the barrier. For an ensemble of particles, we can determine the average dwell time.

This average dwell time can be decomposed into an average transversal and reflection time. Transversal time is the time spent inside the barrier by particles, which eventually cross the barrier. Reflection time is the time consumed by those particles, which penetrate the barrier but re-emerge on the same side. With the help of the causal interpretation we can give a definition for the average transversal time. It is the average arrival time at the end of the barrier minus the average arrival time at entrance of the barrier.

This transversal time defined above has a clear-cut meaning in the causal interpretation, because this interpretation provides trajectories.

It can be shown, however, that it can also be determined directly from the wave function, without reference to trajectories.

It has been argued that, if transversal time is experimentally accessible, this implies that it is also meaningful in the orthodox interpretation [4]. Contrary to this view, however, we argue that it is not meaningful in the orthodox interpretation, because it cannot be written as the expectation of an observable, and therefore, one cannot relate it to a well-defined measurement context. The question remains whether it is possible to find experiments, which verify this transversal time in electron transfer processes.

[1] P. Holland. The Quantum Theory of Motion. Cambridge University Press, 1993.

[2] J.T. Cushing. Quantum Mechanics (Historical Contingency and the Copenhagen Hegemony). University of Chicago Press, 1994.

[3] V.A. Benderskii, D.E. Makarov and C.A. Wight. Adv. Chem. Phys., 88:15, 1994

[4] K. Bedard. Found. phys. lett., 10(2):183, 1997.


FUNDAMENTACIÓN EMPÍRICA DE LA LÓGICA

Juan Antonio Valor Yébenes

La teoría cuántica ha planteado en las últimas décadas problemas de origen epistemológico y ontológico discutidos no sólo desde la física, sino también desde la metodología y la historia de la física, desde la lógica y la filosofía de la ciencia. Por mi parte, voy a señalar un problema lógico que, a mi modo de ver, tiene interesantes repercusiones epistemológicas y ontológicas.

Según el punto de vista de la mecánica clásica, los fenómenos físicos están divididos en dos regiones mutuamente excluyentes: por un lado la materia, constituida por partículas y, por tanto, con una estructura corpuscular, discreta y circunscrita a cierta región localizable del espacio; por otro lado, los campos y las radiaciones, de naturaleza ondulatoria y continua, por lo que al menos idealmente pueden pensarse extendidos por todo el espacio.

La mecánica cuántica dice que los electrones son ondas y corpúsculos, es decir, las ondas y los corpúsculos son aspectos complementarios que conjuntamente permiten la completa descripción del comportamiento de los electrones. ¿Viola esto el principio de no contradicción?

En el libro IV de la Metafísica (IV-3, 1005b 19-20) Aristóteles define el principio de la siguiente manera (trad. de Tomás Calvo, Gredos, 1994): "es imposible que lo mismo se dé y no se dé en lo mismo a la vez y en el mismo sentido (y cuantas precisiones habríamos de añadir, dense por añadidas frente a las dificultades dialécticas)".

Por consiguiente, entiendo que desde el punto de vista de la mecánica clásica violamos el principio de no contradicción si decimos que un electrón es (una onda) y no es (una onda, es decir, es un corpúsculo).

Sin embargo, a pesar de ello la investigación científica continúa, en la medida en que el objetivo no es, obviamente, respetar el principio de no contradicción, sino sencillamente explicar lo que ocurre. Y lo que ocurre es que los electrones tienen un comportamiento dual. Si tal explicación exige abandonar el principio de no contradicción, se abandona.

Esto me lleva a pensar, y es lo que tengo que mostrar con suficiente cuidado, que, en contra de los planteamientos de raíz kantiana, el principio de no contradicción y, de un modo más general, la lógica, no es algo a priori, es decir, no es condición de posibilidad de toda experiencia, sino que, por el contrario, depende de la experiencia, y cuando cambia la experiencia cambia la lógica.


LA ESPECTROSCOPÍA EN ESPAÑA DURANTE EL PRIMER TERCIO DEL SIGLO XX: LA RAYA ROJA DEL ESPECTRO DE LA CORONA SOLAR

José M. Vaquero y José M. Cobos

Pedro Carrasco Garrorena (Badajoz, 1883 – México, D.F., 1966) es una de las figuras españolas más importantes de la astronomía y de la física del primer tercio del siglo XX pese a que su vida y sus trabajos no han sido estudiados con profundidad hasta ahora. Fue catedrático de Física–Matemática en la Universidad Central, sustituyendo a Echegaray, y Director del Observatorio Astronómico de Madrid. Marchó a México tras la Guerra Civil Española desarrollando una importante labor educativa y apoyando el crecimiento de la geografía mexicana. Una línea de su investigación estuvo dedicada a la espectroscopía astronómica.

Uno de los grandes retos de su investigación fue el obtener fotografías del espectro de la corona solar. Estas debían realizarse durante la fase de totalidad de eclipses de Sol. Carrasco participó en una expedición a Teodosia (Crimea) del Observatorio de Madrid que tenía por objetivo la observación del eclipse total de Sol del 21 de agosto de 1914. El viaje fue muy complicado debido a la situación de guerra que se vivía en Europa.

Carrasco consiguió sus fotografías del espectro de la corona solar. Lo más sobresaliente fue que en sus placas no aparecía la línea verde, que ya había sido observada durante otros eclipses, y sí aparecía una línea en la región del rojo, desconocida hasta ese momento. Carrasco dio para la línea roja la longitud de onda l=6373,87± 0,036 Å. El descubrimiento fue publicado en varias revistas (Carrasco, 1914a, 1914b, 1915a).

A partir de la reducción de todas las rayas registradas en sus placas, Carrasco se dispuso a encontrar relaciones entre éstas. Lo primero que descubrió Carrasco fue que la línea roja pertenecía a una serie de líneas ya descubiertas (Carrasco, 1915b). El astrónomo Nicholson había expuesto ya sus ideas de los hipotéticos átomos de Coronio y de protofluor. En trabajos posteriores (Carrasco, 1915c, 1916a, 1916b, 1916c), Carrasco siguió investigando en la estructura de la líneas del espectro de la corona solar.

Carrasco, P. (1914a) “Observations physiques faites à Théodosia pendent l’éclipse totale de Soleil du 21 Aout 1914” Comptes Rendus de la Academie des Sciences, V, CLIX, nº 22, 740-741.

Carrasco, P. (1914b) “Nueva raya coronal” Anales de la Sociedad Española de Física y Química, 510-512.

Carrasco, P. (1915a) “Sonnenfinstermis vom 21 august 1914” Astronomischen Nachrichten 4785, 147-148.

Carrasco, P. (1915b)“Sur la structure spectre de raies de la couronne solaire” Comptes Rendus de la Academie des Sciences, V, CLXI, 631-632.

Carrasco, P. (1915c) “Estudios teóricos sobre los espectros de líneas de la Corona Solar I” Anales de la Sociedad Española de Física y Química, 469-477.

Carrasco, P. (1916a) “Estudios teóricos sobre los espectros de líneas de la Corona Solar II” Anales de la Sociedad Española de Física y Química, 242-248.

Carrasco, P. (1916b) “Estudios teóricos sobre los espectros de líneas de la Corona Solar II[III]” Anales de la Sociedad Española de Física y Química, 267-271.

Carrasco, P. (1916c) “Estudios teóricos sobre los espectros de líneas de la Corona Solar II[IV]” Anales de la Sociedad Española de Física y Química, 305-312.


LAS DIMENSIONES TELEOLÓGICAS DE LA COSMOVISIÓN CONTEMPORÁNEA

Héctor Velázquez Fernández

Las reformulaciones que la mecánica cuántica introducía en el ámbito epistemológico, según una interpretación naturalista, debían extenderse a todo el pensamiento en general de nuestra naturaleza. Si la incertidumbre y el sin sentido de las mediciones deben ser protagonistas desde los planteamientos cuánticos, más acorde con las perspectivas de la cosmovisión contemporánea es el intento de aglutinar diversas teorías morfogenéticas en sincronía para explicar desde diversas áreas nuestra naturaleza, con una visión teleológica. En la actualidad la realidad se nos presenta como un escenario de la auto-organización. En la cosmovisión contemporánea destaca las manifestaciones holísticas, en donde aparecen nuevas estructuras con base en la funcionalidad, la morfogénesis, la información como criterio de propagación de nuevas tendencias que se incorporan unas con otras en sinergia o cooperatividad; dimensiones todas en estrecha relación con la teleología. Por tanto apelar a la incertidumbre de fondo o la ausencia absoluta de teleología natural de un mundo que procede al acaso no puede tener sustento en los alcances de la ciencia natural, y sólo tendría cabida en el reduccionismo del naturalismo en su modalidad contemporánea. La tendencia telelógica está presente en el mundo biológico y físico, así como en el de las intenciones racionales y las tendencias naturales a escala particular y global. Hay diversas perspectivas del despliegue teleológico: es tanto el fin de un proceso, la meta de una tendencia, el valor para la acción de un sujeto, como el objetivo de un plan. Los tres primeros aparecen en la actividad natural y en la humana, mientras que el último es propio de la actividad intencional de los seres inteligentes. Estas vertientes de la teleología obligan a investigar si existen tendencias innatas hacia objetivos determinados en el comportamiento natural y además si su explicación requiere de algún plan inteligente que gobierne la actividad de la naturaleza. En particular el mundo biológico es rico en sistemas finalistas distintivos con procesos hacia objetivos concretos; a diferencia del mundo inanimado donde la direccionalidad es más abierta. La cosmovisión actual por vez primera incorpora los componentes básicos de todos los niveles naturales y sus relaciones mutuas y por ello subraya la imagen cooperativa, tendencial y holística de la naturaleza. Así, el enorme proceso de auto-organización natural que ha permitido nuestra existencia es el despliegue de muchas tendencias coordinadas que en la investigación natural podemos advertir desde los componentes mínimos del conjunto sin que perdamos el plan general de la realidad. Las objeciones tradicionales contra la teleología del mundo natural tratan de subrayar su inutilidad, su imposibilidad, su incognoscibilidad e ilegitimidad. Ciertamente la teleología no está incluida en los razonamientos científicos, más bien en sus resultados, pues el holismo, la funcionalidad y la direccionalidad de la naturaleza comparecen ya en los avances de la biología y la química, debido a que en épocas en donde la física mecánica fue preponderante, las pautas auto-organizativas direccionadas no aparecían con claridad. Se creía imposible la teleología porque se estimaba poco probable que el futuro influyera sobre procesos presentes, lo cual se ha modificado con el concepto de información que muestra cómo un programa natural puede guiar el curso de los procesos futuros, pues la información se comporta como un conjunto de posibilidades que se desarrollarán de acuerdo a diferentes y cambiantes circunstancias; un programa abierto sin final completamente predeterminado dependiente de la integración de diferentes piezas. Así, lo futuro se encuentra de algún modo ya codificado y puede ser conceptualizable por quien lo investiga como una suerte de racionalidad materializada. Cuando se afirma la incognoscibilidad de la teleología se la supone como un mecanicismo irrenunciable, que por estorbar el dinamismo natural se antoja improcedente. Y el carácter ilegítimo se le achaca por la aparente contradicción categorial supuesta si la naturaleza tuviera propósitos no inteligentes, pues éstos sólo podrían esperarse de seres con racionalidad. Sin embargo, la funcionalidad, la direccionalidad, la cooperactividad y todas las dimensiones teleológicas de la cosmovisión contemporánea, existen siempre en situaciones de organización estable, en donde el dinamismo natural sigue pautas temporales especificas, entendidas como ritmos, creando nuevas pautas espaciales o configuraciones que muestran el proceder de la naturaleza como un gran plan a desplegar con interacción fundamental de todas las variables que en el tiempo se van combinando. Así, la cosmovisón actual incorpora en la estructura microfísica del mundo la gnoseología de la física cuántica pero la hace solidaria a su vez con otros componentes que descifran la naturaleza, tales como la termodinámica lejos del equilibrio, la sinergética de fenómenos cooperativos, la teoría de catástrofes o el caos determinista sensible a variaciones iniciales, y muestran el despliegue natural como un gran plan inteligible y racional de la teleología cognoscible de nuestro mundo.


QUANTUM MECHANICS: THE SCIENTIST TURNS PHILOSOPHER

Friedel Weinert

All great scientific revolutions have philosophical consequences. Quantum mechanics is no exception. As Max Planck was the first to note, the introduction of the universal constant h posed a serious threat to a deterministic conception of the universe. It became conceivable that nature made leaps after all. Furthermore, these leaps seemed to be of a random character. The indeterministic nature of the quantum world made itself felt twice: in the Planckian explanation of blackbody radiation (1900) and in the radioactive decay law (1901). Both involve statistical considerations at a fundamental level. The emission and absorption of discrete quanta by atoms in black bodies is a probabilistic event. So is the escape of a-particles or b-particles from the nucleus, causing the chemical changes, which Rutherford and Soddy linked to the radioactive activity. Einstein (1917) expressed his concern about indeterminism by noting that quantum mechanics failed to predict the direction of outgoing radiation in spontaneous emission. Unlike Planck and Einstein, who adhered to a fundamentally deterministic view of the universe, Heisenberg and Bohr used the two-slit Gedankenexperiment in the late 1920s to enthusiastically embrace the new indeterministic view of nature.

The indeterminacy principle has served generations of physicists (and philosophers) to conclude that quantum mechanistic is acausal. There are two scenarios. The antecedent conditions of the state of a quantum mechanical system cannot be fully known experimentally (either momentum or position, energy levels or time in energy state can be measured accurately). The consequent conditions of the quantum system, after interference with the measurement apparatus, cannot be predicted with precision. Ergo: the law of causality fails to apply in quantum mechanics.

This sort of reasoning can be found in Eddington and Jeans, in Heisenberg and Bohr, in Schrödinger and Born. The scientist has turned philosopher. Yet it is philosophy that fails to question its own assumptions. For this reasoning from Heisenberg’s indeterminacy principle to quantum mechanical acausality operates under the shadow of the Laplacean demon. Causality is surreptitiously identified with determinism. It is a functional view of causality: its vehicle are differential equations, its criterion is predictability. Yet the quantum mechanical evidence, from the early Franck-Hertz experiment (1914) to the very latest welcher-weg experiments, shows the weakness of the functional view of causality. It urges a separation of the notions of determinism and causality. Quantum mechanics has created a new conceptual map. There is room for indeterminism and causality. These experiments can be interpreted causally, yet their outcomes are indeterministic. Philosophically, they inspire a conditional model of causality, along the line of Mackie’s INUS view (which, incidentally, is not limited to determinism). The probabilistic nature of the causal relations can be cashed in in terms of necessary and sufficient conditions. On such a model, the EPR-correlations may have to be disqualified as causal relations.


BOHR'S RELEVANCE FOR PHILOSOPHY AND MODERN PHYSICS

Henrik Zinkernagel

It is well known that Bohr took quantum theory to be associated with a number of philosophical lessons and, indeed, Bohr's views on quantum theory have important bearings on old philosophical issues such as realism, reductionism and the unity of science. Nevertheless, there seems to be a widespread scepticism towards Bohr's views both among philosophers and physicists. For instance, philosophers within the pragmatic tradition may disagree with Bohr's claim that concepts from classical physics will always be needed in our descriptions of nature and hence that not all aspects of scientific theories are open to revisions in the future.
Within physics, the opposition to Bohr arises for instance among the physicists working on quantum cosmology. In this theory quantum mechanics is applied to the universe as a whole and quantum cosmologists can therefore hardly agree with Bohr on the necessity of an external classical system in order to define the quantum phenomena. The idea of a fundamental necessity for classical physics is also opposed by string theorists and others who attempt to construct theories in which classical theories are merely low energy limits of deeper quantum theories.
In this talk I briefly present some key aspects of Bohr's views and discuss, using work of the danish philosopher Peter Zinkernagel, how the necessity of classical physics concepts can be understood. I argue that this necessity of classical physics concepts -- in particular the concept of time -- has profound implications on our current understanding of both philosophy and modern physics.

References:

Bohr, N. (1958) `Quantum Physics and Philosophy -- Causality and Complementarity' in Bohr, N. ``Essays, 1958-1962, on atomic physics and human knowledge´´ (New York: Wiley 1963)
Zinkernagel, H. (2000) `Cosmology, Particles, and the Unity of Science' (to appear)
Zinkernagel, P. (1962) ``Conditions for Description´´ (New York: The Humanities Press)

Home Page - Invited Speakers - Registration FormCongress Schedule - Book of Abstracts - List of ParticipantsAccomodation
Map of th University ComplutenseFacultad de Filosofía - Universidad Complutense